Comment définissez-vous l’intelligence artificielle symbolique ?
L’IA symbolique correspond à ce que j’appelle l’intelligence à base de connaissances. Les modèles s’écrivent sous forme symbolique, une équation, par exemple, ou sous forme logique, avec des quantificateurs, des relations… Elle a produit les systèmes experts, des ensembles de règles résolvant des problèmes grâce à des mécanismes de raisonnement. Les ontologies et les graphes de connaissances sont aussi des moyens de modéliser la connaissance. On n’aurait pas Google ou Wikipédia sans cela. Ce type d’IA est bien adapté, notamment, à la résolution de problèmes combinatoires et à l’aide à la décision sous contrainte.
Et l’IA statistique ?
Elle repose sur l’apprentissage. L’idée est d’utiliser des données ou des informations pour en extraire un concept, une prédiction. C’est un peu l’ancien métier des statisticiens et des datascientists, mais avec de nouveaux outils, tels les réseaux de neurones. Ce type d’IA, porté par la communauté connexionniste, est à la mode. Il est performant dans la perception, la reconnaissance d’objets, la prédiction…
Pourquoi vouloir les réunir au sein d’une IA dite hybride ?
Ce sont des deux paradigmes qui se sont longtemps opposés. Mais la vie étant plus compliquée, les deux sont essentiels quand un problème est complexe. Si je fais le parallèle avec le langage naturel, j’ai besoin d’exemples, de vocabulaire, donc de taxonomie pour pouvoir m’exprimer. Mais aussi de règles de construction de phrases, donc de grammaire. L’IA symbolique, c’est plutôt la grammaire, et l’IA statistique, les exemples.
Comment peut-on réaliser cette hybridation ?
Par analogie avec le langage naturel, l’IA symbolique, c’est plutôt la grammaire, et l’IA statistique les exemples, le vocabulaire.
L’hybridation s’opère au sens quasi biologique du terme. La connaissance peut être imbriquée dans les fonctions de coût de l’algorithme d’apprentissage. C’est le cas des réseaux de neurones physiquement informés, ou PINN [physics-informed neural networks, ndlr]. La connaissance prend ici la forme de lois physiques, en l’occurrence les équations de Maxwell, de Navier-Stokes…, et limite l’espace des solutions admissibles. Chez Thales, on étudie les GINN [geometry-informed neural networks, ndlr] pour améliorer la résistance d’un système de reconnaissance d’images aux vibrations, ce qui induit des translations, des rotations… La morphologie mathématique est une autre technique d’hybridation, développée par l’École des mines, qui sert à analyser une image à partir d’une connaissance a priori, un élément structurant, qui guide l’apprentissage. Après combinaison avec des réseaux de neurones convolutionnels, des réseaux morphologiques profonds autorisent l’apprentissage de structures dans une image, la modélisation des relations spatiales d’un objet… La logique floue ou les algorithmes génétiques [ou évolutionnistes, ndlr] permettent de leur côté d’apprendre de données bruitées, incomplètes ou incertaines. Ces deux techniques ont été employées par Psibernetix, acquis par Thales en 2019, pour élaborer son IA qui a vaincu des pilotes de chasse en simulation. Cette start-up a réussi à capturer des connaissances métiers, à savoir les manœuvres de combat aérien, et à établir un modèle de raisonnement malgré des informations incomplètes.
L’hybridation se fait-elle uniquement durant la phase d’apprentissage ?
C’est possible durant l’inférence : le réseau de neurones peut être contraint, comme dans une enveloppe, par quelque chose de beaucoup plus symbolique. Quand l’inférence sort des clous, par exemple quand la probabilité d’une détection n’est pas très bonne, un système de contrôle donne la main à un humain ou une autre technologie prend le relais pour le calcul.
L’IA symbolique était au menu du programme Confiance.ai avant le lancement, en 2023, d’une nouvelle phase axée sur l’IA hybride. Où en êtes-vous ?
L’IA symbolique signifie la description de connaissances métiers que les industriels impliqués dans Confiance.ai ne souhaitaient pas partager. Par conséquent, nous avons sauté cette étape, en sachant que ces entreprises continuent de travailler en interne sur l’IA symbolique. Nous n’avons qu’un seul cas d’usage aujourd’hui qui mélange de l’IA symbolique avec de l’apprentissage : celui de Safran, qui s’intéresse à la planification d’opérations de maintenance. Mais l’IA hybride outille notre chaîne d’ingénierie algorithmique pour développer, qualifier et maintenir ces solutions, y compris quand il est question d’IA statistique. Pour garantir la confiance dans l’IA, c’est une approche possible. Un modèle déployé en opération peut rencontrer un contexte différent des exemples qui ont servi durant son apprentissage. Ses performances dévient ou se dégradent. Pour les superviser, vous devez employer une autre approche algorithmique, sinon il y a un biais. C’est un principe de base en matière de sûreté. Une approche hybride permet de détecter ces déviations. Après cette étape, on peut régler les paramètres pour que les performances restent dans les clous, créer une espèce de «patch» qui garantit une certaine robustesse de l’IA. C’est un résultat obtenu par Confiance.ai, qui fera partie de notre boîte à outils et sera mis à disposition de l’ensemble des partenaires. Ces méthodes seront testées cette année chez les industriels.
Confiance.ai, un projet phare made in France
-
45 millions d’euros de budget
-
Durée du programme : 4 ans
-
50 partenaires
Confiance.ai est un programme de recherche français qui met à contribution de grands industriels (Air Liquide, Safran, Renault…), des PME et des acteurs académiques, dont le CEA et l’Inria. Objectif : obtenir une intelligence artificielle de confiance, industrialisable, en particulier pour des systèmes critiques mettant en jeu la vie humaine. Sont développés des méthodologies et des outils logiciels qui valideraient le fonctionnement d’un système embarquant de l’IA tout au long de son cycle de vie. Ce qui implique de démontrer la robustesse de l’IA, comme sa résistance au bruit et aux attaques adverses, de pouvoir expliquer ses décisions…
Soit précisément les points faibles de l’IA statistique, que les travaux de Confiance.ai cherchent à corriger, par le biais de l’hybridation notamment. La suite du programme, qui se terminera en 2025, est en cours de réflexion. «Nous pourrions devenir une fondation open source pour valoriser nos résultats, confie Juliette Mattioli. Nous cherchons aussi à compléter nos axes de travail avec la cybersécurité, les moyens de garantir la confiance dans l’IA générative… Enfin, nous étudions la mise en application dans des domaines spécifiques, comme la santé et l’automobile.» Le bilan de la troisième année du programme sera présenté le 7 mars, à Bercy.



