Pouvez-vous rappeler l’objectif de Confiance.ai ?
Confiance.ai vise à industrialiser la chaîne de production de l’intelligence artificielle de confiance, c’est-à-dire d’une IA qui puisse être utilisée dans des produits et services critiques. Il s’agit plus précisément d'élaborer des outils, méthodes et process pour concevoir, implémenter, vérifier, valider, qualifier, certifier et maintenir en conditions opérationnelles des technologies d’IA. Il faut outiller toute cette chaîne, c’est essentiel pour accélérer l’intégration de l’IA.
Vous soulignez la spécificité de ce programme de R&D. En quoi est-il si spécial ?
Confiance.ai est d’abord le seul programme de la stratégie nationale en intelligence artificielle qui soit fait par des industriels et pour des industriels. C’est-à-dire que sa feuille de route est alignée avec les feuilles de route des 9 industriels qui y contribuent. Quatre filières sont représentées - l’auto, l’aéro, l’énergie et la défense -, ce qui fait que les outils qui sont développés sont génériques, agnostiques en termes d’applications. Mais ils sont testés sur de vrais cas d’usage apportés par les industriels. Renault, par exemple, veut améliorer la détection de défauts de soudure. Pour Thales, c’est la reconnaissance d'objets d'intérêt dans des images aériennes...
Le transfert des technologies développés en sera d’autant plus aisé...
Oui, il faut noter une autre spécificité du programme : outre 15 millions d’euros de financement, les industriels mettent à disposition leurs propres personnels. De ce fait, le transfert des résultats de Confiance.ai se fait directement, via ces personnels, au fil de l’eau : nous récupérons en temps réel les outils développés pour les tester dans nos cas d’usage et en faire un retour d’expérience quasi-immédiat.
En outre, nous récupérons des résultats scientifiques de haut niveau produis par l’institut 3IA Aniti, de Toulouse, qui est partenaire. Confiance.ai joue ainsi un rôle de maturation de technologies, en les portant d’un TRL 2-3 à un TRL 6. Pour toutes ces raisons, et en y ajoutant son ampleur – quelque 300 ingénieurs et chercheurs sont impliqués -, Confiance.ai est vraiment un programme unique en France et même à l’international.
Les principaux outils déjà développés seront présentés durant ces 3 jours, pouvez-vous donner quelques exemples ?
Le programme est divisé en 7 grands projets. Thales mène par exemple celui sur la méthodologie globale pour développer à partir de zéro un système d’IA. En support de cette méthodologie a été élaboré un outil appelé Companion.ai destiné à guider le développeur du système à chaque étape. Un autre exemple consiste en une chaîne outillée de qualification des données d'entraînement de l'IA. Elle utilise notamment l’outil Pixano de labellisation des données qu’avait déjà développé le CEA ainsi que l’outil DebiAI de SystemX qui permet de parer aux biais des données d’apprentissage.
Nous avons aussi travaillé sur la validation de propriétés de sûreté et de robustesse d'algorithmes venus d’Aniti et de l’IRT Saint-Exupéry qui utilisent le machine learning pour assurer une fonction d'anticollision pour des drones. Afin d'embarquer cette fonction, il faut pouvoir démontrer sa conformité au degré de sûreté nécessaire dans l’aéro - typiquement une probabilité d’occurrence d'événement redouté inférieure à 10^-9 par heure de vol.
Prévu pour durer quatre ans, Confiance.ai arrive à mi-parcours. Comment vont s’échelonner les futurs travaux ?
Nous sommes organisés pour livrer des résultats par lot, chaque année. Nous avons commencé par travailler sur l’approche de l’IA dite data driven, l’IA du machine learning et des réseaux de neurones, dans des domaines de faible criticité. Nous allons continuer mais nous commençons en ce moment à travailler sur l’IA dite symbolique, à base de connaissances et de règles, sur des domaines de moyenne criticité.
Ensuite, la troisième phase du projet portera sur l’IA hybride, qui marie machine learning et IA symbolique, ainsi que de l’apprentissage par renforcement, pour des applications de haute criticité. C’est-à-dire que les outils de validation des systèmes d’IA devront tenir compte du caractère vital de ces systèmes.



