Achevée officiellement en septembre dernier, l’histoire de Confiance.ai, programme de recherche français qui a développé notamment une méthodologie permettant le déploiement d’IA robustes, fiables et explicables dans l’industrie, va se prolonger. Mais sous une autre forme : celle d’une « communauté » - ce n’est plus un programme financé par France 2030 -, qui met sur pied un plan d’action pour « accélérer l’intégration de l’IA de confiance dans les systèmes industriels à l’échelle européenne ». L’information provient d’un communiqué publié ce 9 avril.
Confiance.ai, qui a réuni de grands groupes industriels, des PME, des start-up et des organismes de recherche académique, fait référence sur le plan mondial dans le domaine de la recherche et technologie (R&T) sur l’IA de confiance. Laquelle est, explicitement, une IA à laquelle on peut se fier quand elle accompagne un processus industriel, que ce soit durant la phase de conception ou de production, au cours d’une phase opérationnelle, etc. Elle livre des résultats fiables, que l’on peut expliquer, et résiste aux cyberattaques. Des qualités indispensables pour des applications critiques.
Vers la création d'un label européen AI Trust
Pressentie depuis l’an dernier, la création d’une fondation open source européenne est le premier axe de ce plan d’action. Celle-ci, nommée « European trustworthy AI foundation », est portée par l’IRT SystemX et cinq entreprises fondatrices du programme Confiance.ai : Air Liquide, Naval Group, Safran, Sopra Steria et Thales. Des acteurs européens et internationaux pourront y adhérer. Sa mission sera notamment de faire mûrir et de diffuser la méthodologie et les technologies conçues au sein de Confiance.ai et de faire de cette méthodologie « un standard de facto ». Une procédure d’évaluation des systèmes et des organisations employant l’IA sera mise en œuvre, qui aboutirait à la délivrance d’un label « AI Trust ».
Les travaux de R&T vont se poursuivre en parallèle durant quatre années supplémentaires, avec un budget d’une dizaine de millions d’euros. On ignore à ce stade les modalités de participation des acteurs académiques. L’objectif est de lever les verrous scientifiques et technologiques, encore « nombreux » dixit le communiqué, et de favoriser l’expansion de l’IA de confiance dans l’industrie. Ils traiteront pour la première fois de l’IA générative, la grande tendance actuelle, l’objectif étant qu’elle puisse assister de manière fiable un technicien sur le terrain ou un ingénieur dans un bureau d’études. L’IA hybride, qui combine les connaissances et un modèle basé sur l’apprentissage automatique, est toujours au menu. Il est également question de collaboration humain/machine et de cybersécurité.
Le dernier point se concentre sur la mise en œuvre concrète de l’IA de confiance dans l’industrie. Ce qui commence par la formation : un mastère « IA de confiance » a été initié par CentraleSupélec Exed et l’IRT SystemX à destination de futurs ingénieurs. Des offres de la part d’Airbus et de Sopra Steria pour les industriels souhaitant vérifier la conformité réglementaire de leurs systèmes d’IA sont également disponibles. Une proposition commerciale qui s’étoffera grâce la création prochaine d’une start-up, issue du CEA et l’IRT SystemX, dont le logiciel « as a service » garantira aux équipes d’ingénierie que les composants IA qu’elles développent peuvent être qualifiés d’IA de confiance.



