Impossible de passer à côté. L’intelligence artificielle (IA) sature les médias. Démonstrations de force du deep learning, promesses de gains faramineux, menaces sur l’emploi ou dérives liées à l’usage aveugle de ses algorithmes, l’IA est mise à toutes les sauces. En quelques années, elle a acquis le statut de révolution technologique du XXIe siècle et s’est imposée comme un enjeu géostratégique et économique dans la compétition mondiale. Pour les entreprises et les États, le message est simple : « Si vous ratez la révolution IA, vous êtes mort. » Rien d’étonnant, donc, à ce que tous, à en croire les discours, stratégies et lancements de solutions, en fassent aujourd’hui… La réalité est tout autre. « L’IA se diffuse bien moins vite que ce que l’on entend un peu partout, pointe Sylvain Duranton, à la tête de BCG Gamma, l’entité dédiée à l’IA du BCG. Notre dernière étude montre que seuls 20 % des grands groupes ont mené des projets IA jusqu’au déploiement, contre 18 % il y a deux ans. On est loin de l’explosion. »
Cet emballement a l’inconvénient majeur de présenter l’IA comme un ovni numérique, a priori bien difficile à intégrer pour un industriel. Or elle s’inscrit au contraire dans la continuité des méthodes industrielles. « Analyser des données, identifier des corrélations, en tirer des enseignements pour optimiser ses process… Ce n’est pas nouveau, rappelle Alexis Fournier, expert en machine learning chez Dataiku, fort de vingt ans de datascience. On le fait aujourd’hui sur de nouveaux types de données et avec de nouveaux outils, mais c’est le même principe. » S’il y a bien une diffusion de l’IA dans l’industrie, cela vient d’abord des entreprises. « Ce qui fait que l’IA rentre à l’usine, ce n’est pas l’apparition du deep learning, tranche Patrick Sayd, le responsable de l’unité IA pour le langage et la vision au CEA List. C’est le besoin des industriels de piloter des systèmes de plus en plus complexes et le fait qu’ils ont commencé à stocker leurs données pour cela. » IA, big data, industrie 4.0, même combat !
Derrière l'arbre du deep learning, la forêt du machine learning
Il ne s’agit pas de nier l’étrangeté des réseaux de neurones profonds du deep learning, pas plus que la rupture qu’ils marquent. Mais il faut replacer cette dernière dans son contexte. Celui de la recherche, et celui de la performance en matière de perception. Soit le traitement de données homogènes (images, textes et sons, principalement). Ces progrès ont déjà permis un essor sans précédent des applications de commande vocale, de traitement automatisé de documents textuels et de vision par ordinateur. Cette dernière est très utile pour les opérations industrielles. Mais l’industrie a d’autres besoins que le deep learning n’est pas, pour le moment, capable de satisfaire. Ou pour lesquels on ne peut pas encore lui faire confiance [lire l’encadré]. De plus, recourir à cet outil extrêmement gourmand en données et en puissance de calcul, donc coûteux, reviendrait bien souvent à utiliser un marteau-piqueur pour enfoncer un clou.
Derrière l’arbre du deep learning (apprentissage profond), une forêt d’outils s’offre aux industriels : ceux du machine learning (apprentissage automatique). Voilà ce qu’est l’IA dont on parle tant : des outils qui apprennent à partir des données pour élaborer des modèles. A contrario de la simulation, qui part des lois de la physique, et de l’IA symbolique, qui se base sur des règles explicitées par l’humain comme dans les systèmes experts. Appliqués sur de nouvelles données d’entrée (une étape dite d’inférence, par opposition à celle de l’apprentissage), ces modèles pourront prédire les sorties correspondantes, identifier des similarités, détecter les anomalies…
Méthodes à noyau comme les machines à support de vecteurs, méthodes d’ensembles – AdaBoost, random forest – et réseaux de neurones… « Ces outils sont bien connus depuis une vingtaine d’années » , rappelle Mathilde Mougeot, titulaire de la chaire Analyse de données industrielles et apprentissage automatique de l’ENS Paris-Saclay. Ils sortent aujourd’hui des laboratoires pour intégrer l’usine. « Les méthodes de machine learning peuvent traiter de grands volumes de données de types variés pour résoudre des problèmes complexes et apporter plus de valeur ajoutée aux industriels », résume la professeure.
Intégrer l'IA dans des équipements industriels
Identification des défauts, réduction des rebuts, amélioration de la productivité, maintenance prédictive, automatisation du contrôle qualité, gestion des stocks et des approvisionnements… L’IA version machine learning se diffuse à travers de multiples applications. Deux grandes évolutions devraient accélérer le mouvement. D’abord, l’intégration croissante de l’IA dans les équipements industriels. La vision industrielle est la première à en bénéficier, avec l’émergence de caméras embarquant des algorithmes d’IA pour analyser les images en temps réel. Une tendance qui profite à plein de l’explosion de puces dédiées à l’IA : des processeurs graphiques (GPU) déclinés en version « nano » aux FPGA (field programmable gate arrays) qui trouvent un nouvel élan, en passant par les accélérateurs VPU (visual processing units) de Movidius (Intel) et les systems on chip (SoC, couplant par exemple un CPU et un FPGA sur une même puce).
L’intégration de l’IA dans les machines passe aussi par des algorithmes créés pour répondre aux contraintes de l’industrie. C’est le créneau du français Cartesiam, né en 2016, et de son IA dédiée à la détection d’anomalies. « Nous sommes partis du constat que le machine learning était issu du monde des données personnelles, avec de gros réseaux de neurones entraînés sur des serveurs surpuissants avec d’énormes quantités de données labellisées », rappelle François de Rochebouët, son directeur technique. Or dans l’industrie, il y a souvent peu de données, encore moins de données labellisées, et la puissance de calcul n’est pas forcément disponible.
Une IA frugale sur microcontrôleurs
« Nous avons donc adopté une approche différente : placer l’apprentissage au plus près de la machine en développant une IA frugale capable d’apprendre en local sur les microcontrôleurs [ces circuits intégrés sommaires embarqués par milliards dans toutes sortes d’équipements, ndlr] », explique le directeur. Cartesiam a fait valoir son approche avec Bob Assistant, un dispositif d’analyse vibratoire d’Eolane, dont le microcontrôleur intègre des algorithmes de Cartesiam pour faire de la maintenance prédictive. Une approche généralisée avec le lancement, le 25 février, de NanoEdge AI Studio, « le premier environnement de développement intégré qui permet l’apprentissage et l’inférence directement sur les microcontrôleurs ARM Cortex M », avance François de Rochebouët.
De son côté, le français AnotherBrain, créé en 2017, doit commercialiser à l’automne ses premiers produits. Des systèmes de vision utilisant des algorithmes d’IA originaux, « capables d’apprendre localement, sans labellisation de données et en continu, ce qu’est une pièce bonne pour détecter et localiser les défauts, promet Christian Verbrugge, le directeur de l’activité industrie. En 2021, nous utiliserons cette compréhension de la vision pour donner de l’intelligence aux robots. »
Plates-formes data comme celle de Dataiku
Deuxième grande évolution : l’apparition d’outils logiciels facilitant l’utilisation de l’IA dans les entreprises. L’open source régnant sur l’IA, les algorithmes les plus performants sont en libre-service. « Jusqu’à récemment, les briques open source étaient faites pour des datascientists avec des algorithmes à calibrer, paramétrer…, rappelle Anne-Sophie Taillandier, la directrice de TeraLab, la plate-forme big data de l’Institut Mines-Télécoms [lire l’entretien page 27]. Mais cela évolue vers des outils adaptés aux non-experts, comme un ingénieur procédés qui voudrait expérimenter des modèles d’IA. » De nombreux logiciels dits d’AutoML (machine learning automatisé) prennent ainsi en charge la construction de modèles adaptés aux données et au cas d’usage de l’utilisateur.
Plus largement, des solutions ont émergé pour permettre un usage généralisé et structuré des données dans l’entreprise. Dataiku, licorne française, est pionnière en la matière. « Après s’être connectée à toutes les sources de données de l’entreprise pour permettre d’y accéder facilement, notre plate-forme logicielle fournit un ensemble d’outils qui vont du prétraitement des données à la création de modèles, en passant par la visualisation, explique Alexis Fournier. Surtout, ces outils sont collaboratifs. Le but est de permettre aux utilisateurs finaux de réaliser eux-mêmes les analyses, en se faisant aider si besoin par leurs collègues datascientists. »
Prendre en compte les métiers
Cette approche fait ainsi graviter autour des données toutes les compétences nécessaires à leur bonne exploitation. Un atout majeur pour que les POC (proofs of concept, ou démonstrateurs) débouchent sur une mise en production. « Des datascientists enfermés dans la tour d’ivoire de leur datalab, qui ne connaissent ni le métier ni le contexte d’utilisation, ont peu de chances de créer une solution performante et qui soit adoptée sur le terrain », souligne Alexis Fournier.
« Trop souvent dans les projets d’IA, les entreprises ne mettent pas assez d’énergie dans l’utilisation des connaissances métier, renchérit Sylvain Duranton. C’est d’autant plus dommage que les salariés ont une forte appréhension face à l’IA. » Si les prouesses du deep learning ont pu donner l’illusion que le machine learning allait balayer des décennies d’expertise, de modélisation physique et d’IA symbolique, l’heure est à la convergence des approches. Le programme IA2 lancé par l’IRT SystemX en février en est une illustration. Pour passer du buzz à l’usine, l’IA s’allie à l’humain.
L’IA au défi de la confiance
Comparé à la programmation classique et à l’IA symbolique, le machine learning produit des modèles dont il est souvent difficile d’évaluer la fiabilité. En effet, les données d’apprentissage ne représentent pas forcément tous les cas réels possibles, et surtout, concernant les réseaux de neurones, la théorie manque pour décrire les connaissances encodées. Ce qui rend d’ailleurs leur « raisonnement » inexplicable pour l’humain. Si nombre d’applications, même industrielles, peuvent s’en accommoder, ce n’est pas le cas des systèmes critiques, pour qui la confiance, préalable à la certification, s’impose. L’un des grands défis lancés par le Conseil de l’innovation consiste à « développer une IA de confiance pour les systèmes critiques », résume son directeur, Julien Chiaroni, par ailleurs chargé de la stratégie et des programmes du CEA List. Au menu de ce challenge, encore en élaboration : une plate-forme logicielle pour la conception de systèmes sûrs à base d’IA, une plate-forme de validation des systèmes de mobilité autonome, et la définition d’une stratégie de normalisation.



