Elle arrive parfois discrètement, sous forme de briques logicielles, d’autres fois en fanfare, présentée comme une solution miracle. L’intelligence artificielle est en tout cas bien entrée dans le monde de l’entreprise. Capables d’extraire des informations significatives de données complexes et non structurées comme de bâtir des modèles prédictifs étonnamment efficaces, l’IA statistique (machine learning) et tout particulièrement les réseaux de neurones profonds (deep learning) ont permis de développer de nouvelles activités et constituent un outil d’amélioration des performances.
Traitement automatisé de documents, détection de fraudes, chatbots pour la relation clients, commandes vocales, recommandation de produits, analyse de l’expérience client… L’IA s’immisce un peu partout. Ou presque : en dehors du contrôle qualité, elle reste encore largement à la porte des ateliers et lignes de production. Cela s’explique tout d’abord par le fait qu’elle nécessite de grandes quantités de données d’apprentissage représentant l’ensemble du domaine d’opération prévu, ce qui s’avère souvent difficile à obtenir dans l’industrie. Mais c’est surtout parce que l’IA statistique peine à satisfaire les exigences des ateliers en termes de précision, de robustesse et de sécurité qu’elle y est encore peu répandue.
Les promesses de l’IA appliquée à la production industrielle sont cependant trop séduisantes pour être ignorées : optimisation des processus de production, maintenance prédictive, gestion des ressources, amélioration de la qualité et de la sécurité, automatisation de tâches complexes et répétitives… En attendant que la recherche académique apporte des solutions de fond, nombre d’industriels et de fournisseurs de solutions développent des approches pragmatiques.
Combiner différents types d’IA statistiques et d’apprentissage peut déjà permettre de pallier leurs faiblesses respectives pour gagner en performance. L’hybridation d’IA statistiques et d’IA symboliques – au sens large de l’utilisation de connaissances explicites – est cependant la voie la plus prometteuse. Il s’agit par exemple de contraindre des modèles à réseaux de neurones à intégrer certaines connaissances ou règles au cours de leur apprentissage, avec à la clé une plus grande explicabilité et une fiabilité accrue des prédictions. La capacité de ces modèles contraints à apprendre à partir des données de manière plus frugale constitue également un avantage d’importance dans le contexte industriel. L’injection de connaissances peut aussi être réalisée directement par un opérateur humain, pour peu que l’IA soit construite pour l’intégrer dans son processus.
Les applications concrètes démontrées ou en cours de démonstration témoignent déjà de l’intérêt de ces efforts : amélioration en temps réel de la précision des robots industriels sur des tâches complexes, développement de capteurs virtuels pour la supervision des opérations, modélisation d’interactions implicites au sein des process, prédiction de l’évolution des conditions opérationnelles de l’usine au cours du temps, pilotage plus fin des process… Autant d’éléments qui s’inscrivent parfaitement dans la quête d’efficacité, de flexibilité et de sobriété de l’industrie.
Un guidage de robot plus robuste
Inbolt La technologie d’Inbolt combine plusieurs briques d’IA pour maintenir ses performances dans l’environnement difficile d’une usine. © Inbolt
«Nous avons développé une technologie qui permet à un robot de suivre un objet avec une grande précision, même en présence de phénomènes parasites», explique Louis Dumas, le directeur technique d’Inbolt. La start-up parisienne a combiné plusieurs éléments d’IA de type deep learning pour donner à GuideNow, sa technologie de guidage par vision 3D, des performances qui lui ont notamment valu d’intégrer l’écosystème de solutions compatibles avec les cobots d’Universal Robots. Le guidage permet d’améliorer la flexibilité d’usage des robots pour des applications de manutention, d’assemblage et de finition.
Le cœur de la solution est un algorithme qui analyse l’image de l’objet à manipuler fournie par une caméra et la compare avec un modèle 3D de la scène pour guider le robot. Et ce à haute fréquence pour gérer les opérations en temps réel. Mais cet algorithme peut vite être à la peine dans l’environnement difficile d’une usine : imprécision du positionnement de l’objet par rapport à la théorie, éclairage variable, environnement complexe source d’un «bruit» perturbant l’analyse de l’image filmée. Pour garantir la performance du guidage, Inbolt a inséré dans sa solution une couche d’IA dite de filtrage reposant sur des réseaux de neurones convolutionnels. «L’IA isole l’objet en traçant son contour pour le comparer au modèle 3D et déterminer précisément sa position, précise Louis Dumas. Nous travaillons avec des images de profondeur, c’est-à-dire que chaque pixel ne représente pas une couleur RGB [red, green, blue, ndlr], mais la profondeur à laquelle le pixel se trouve sur l’image. C’est une solution très robuste.»
Inbolt vise des applications dans l’automobile – GuideNow a été validé par Stellantis –, mais aussi dans la logistique, où les produits sont souvent en vrac. «Parvenir à reconnaître des objets dont les images se chevauchent constitue la suite logique de ces applications», confie le directeur technique. Et pour rendre encore plus fiable son système de guidage, Inbolt planche sur l’exploitation des données RGB : «Notre algorithme fonctionne très bien pour trouver la position précise d’un objet grâce aux données de profondeur. Pour le reconnaître et l’isoler efficacement dans une image, quels que soient sa couleur et l’éclairage ambiant, il est préférable d’utiliser des caméras couleur. Ainsi, le filtrage se fera via les couleurs, et l’alignement via la profondeur. Le challenge consiste à rendre le filtrage sur la couleur suffisamment performant.»
Un pilotage optimal des process
Braincube Braincube fournit aux industriels une panoplie d’outils intégrant différents types d’IA et de modélisations. © Braincube
Se focaliser sur le produit pour exploiter au mieux les données industrielles afin d’améliorer la productivité. Tel est le credo de Braincube. La start-up française, qui a levé 83 millions d’euros en novembre, fournit aux industriels une plateforme IIoT (internet des objets industriels) et logicielle pour récolter tous types de données, les centraliser et les interpréter. Elle recourt pour cela à des approches combinées d’IA symboliques et statistiques (random forest, réseaux de neurones, scoring probabiliste, arbres de décisions, régressions multiples). L’objectif est de permettre aux entreprises de «travailler en temps réel autour de la fabrication du produit, précise Laurent Laporte, le fondateur et président de Braincube. Aujourd’hui, la valeur se situe dans l’exploitation des données, pas dans la collecte.»
La start-up met à la disposition de ses clients une librairie d’outils intégrant différentes IA. Dans les industries de process, elle utilise notamment une modélisation des flux de matière pour, à partir des données collectées, identifier les conditions de fabrication de chaque produit. Des milliers de variables sont répertoriées, puis analysées. Des IA de clustering établissent des relations entre les données, des outils de scoring évaluent la performance des modèles d’apprentissage automatique et leurs prédictions… À la clé, l’identification de causes multidimensionnelles ayant des impacts sur les objectifs fixés par l’opérateur et des recommandations d’actions pour améliorer la conduite des opérations. Le tout en temps réel. «Il faut très peu de temps, de l’ordre d’une minute, pour que notre solution évalue les réglages à effectuer pour respecter les objectifs de production, soit de manière automatisée, soit grâce à l’humain, selon le choix de l’opérateur», revendique Laurent Laporte.
En s’intéressant directement au produit, Braincube permet aux industriels d’appréhender différemment la gestion de leurs opérations, avec une orientation sur les bénéfices plutôt que sur les indicateurs de performance. La start-up a également mis en place une API, pour que les entreprises puissent développer elles-mêmes, à partir de ses algorithmes, de nouvelles applications adaptées à leurs opérations, en fonction de leurs problématiques. Enfin, ses clients les plus avancés s’intéressent désormais aux données d’usage : «Les data de production seront, d’ici deux à trois ans, complètement reliées avec les données d’usage pour permettre une optimisation qui, au-delà du seul coût de fabrication, inclura l’utilisation globale du produit. Cela aboutira à des gammes de produits plus diversifiés, chacun d’entre eux étant beaucoup plus performant dans son environnement et son contexte d’utilisation», promet Laurent Laporte.
P. T.
« L’hybridation peut réduire la quantité de données d’apprentissage », promet Olivier Flebus, responsable IA et optimisation chez Vitesco Technologies
Quels avantages offre l’IA hybride dans la simulation ?
Un modèle à réseaux de neurones entraîné à reproduire les résultats d’un modèle de simulation sera capable de calculer beaucoup plus vite que le modèle initial, mais au prix d’une moindre précision et de possibles erreurs. L’hybridation s’attaque à cet écueil, par exemple en contraignant l’apprentissage du modèle d’IA par l’injection de connaissances, notamment des lois physiques.
C’est aussi un moyen de s’accommoder d’une faible quantité de données d’apprentissage…
Obtenir des données en conditions réelles est plus difficile dans l’industrie que dans les services numériques ! C’est un problème car l’apprentissage classique des modèles d’intelligence articifielle en exige une grande quantité, et de qualité. En injectant un modèle physique dans l’apprentissage, on peut réduire cette quantité, car l’IAn’a pas besoin de réapprendre à partir de données les phénomènes déjà couverts par le modèle physique.
Comment la conception bénéficie-t-elle de l’IA ?
L’IA permet d’accélérer le développement et d’améliorer la qualité des produits. Parexemple, avec un modèle qui calcule beaucoup plus rapidement qu’une simulation classique, on peut explorer davantage de possibilités. Ensuite, en intégrant des données d’essais réels, on peut «recaler» les modèles et gagner en précision. Enfin, on peut également automatiser davantage l’optimisation du design, notamment grâce à l’apprentissage par renforcement, grâce auquel la machine ou le robot apprend«tout seul» en interagissant avec un environnement simulé.
Propos recueillis par P.T. © Vitesco
Un jumeau numérique d’usine plus fiable
Samp Samp utilise une IA assistée par un humain pour valider le jumeau numérique d’une usine. © Samp
La start-up française Samp utilise l’intelligence artificielle pour fournir aux industriels une version améliorée du jumeau numérique de leurs installations, destinée au partage et à la mise à jour de la documentation technique. Elle travaille principalement avec les industriels de l’eau, des déchets et de l’énergie, qu’elle accompagne dans leurs projets de maintenance et de transformation de leurs installations. Sa solution, appelée Réalité partagée, met en œuvre une combinaison de briques d’IA et de connaissances. La première étape consiste à réaliser un scan 3D de l’usine. À partir de ce scan, des outils de machine learning et des approches géométriques identifient et cartographient en 3D les éléments constitutifs de l’installation : tuyaux, valves, échangeurs, réservoirs…
Cette maquette numérique est ensuite confrontée à la théorie : une IA assistée par un humain la compare aux schémas de tuyauterie et d’instrumentation (ou P&ID, pour piping and instrumentation diagrams) issus du système d’information du site. Elle ajuste ensuite la maquette et les P&ID en fonction des incohérences détectées. Ce jumeau numérique offre de nombreux avantages aux industriels : un gain de temps dans la préparation des interventions, l’amélioration de la sécurité, le partage des connaissances entre les équipes, notamment entre opérateurs et ingénieurs… «Faire fonctionner tout cela ensemble a nécessité plusieurs années de R&D. La force de notre IA réside dans sa capacité à reconnaître les équipements, mais aussi à voir comment ils sont connectés entre eux», résume Laurent Bourgouin, le cofondateur et président de Samp.
En outre, l’IA doit composer avec des informations de P&ID denature et de qualité très variables et être ouverte à l’injection des connaissances de l’opérateur. «Dès le départ, nous avons rejeté l’idée d’une IA “boîte noire”. L’automatisation totale n’apporterait pas le niveau de confiance nécessaire. La plupart des sites de nos clients sont sensibles, et il n’est pas souhaitable de laisser une IA garantir seule le niveau de fiabilité requis», explique Laurent Bourgouin. Samp prévoit d’étendre ses modèles à d’autres types d’installations, notamment chimiques et agroalimentaires, et d’être en mesure connecter des modules externes, développés par des partenaires, à son jumeau numérique.
Pierre Thouverez.
Le deep learning s’invite dans la logistique
Optimiser le choix des trajets et les tournées des quelque 6 000camions voyageant au quotidien… C’est toute sa logistique que vise àaméliorer Renault à travers son partenariat de recherche avec l’École des Ponts ParisTech, signé fin novembre. Prévue pour durer cinqans, cette collaboration mobilise la recherche fondamentale pour travailler sur une approche hybride, combinant les outils classiques de l’optimisation logistique et le deep learning.
Plus précisément, les chercheurs veulent développer des outils mathématiques permettant de rendre les algorithmes classiques de recherche opérationnelle et d’optimisation combinatoire compatibles avec les réseaux de neurones profonds du deep learning.
«Nous voulons intégrer une couche d’optimisation combinatoire au milieu de différentes couches successives de machine learning classique», résume AlexisParmentier, enseignant à l’École des Ponts ParisTech et chercheur au Cermics, un laboratoire de mathématiques appliquées. Les résultats escomptés incluent, pour Renault, l’obtention d’algorithmes permettant d’optimiser ses processus logistiques en temps réel et, à terme, prendre des décisions fondées sur des prédictions.
Abdessamad Attigui



