Comment garantir la fiabilité des décisions prises par un algorithme d’intelligence artificielle (IA) ? Indispensable à son acceptation sociale et à son utilisation sur des applications industrielles critiques, le problème dit de l’IA de confiance touche tous les secteurs, des transports à la finance, en passant par l’aéronautique et l’énergie.
C’est pour le résoudre qu’a été lancé, le 1er juillet, le programme Confiance.ai, porté par un collectif de 13 industriels et académiques français et doté de 45 millions d’euros pour la période 2021 – 2024. «Notre objectif est de devenir les meilleurs du monde en fédérant des industriels, des académiques et des start-up», résume Michel Morvan, président de l’Institut de recherche technologique (IRT) SystemX, chargé d’animer et piloter le projet.
"Lever des verrous scientifiques"
Le groupe peut donc compter, côté industriels, sur Air Liquide, Airbus, Atos, Naval Group, Renault, Safran, Sopra Steria, Thales et Valeo et côté académique sur le CEA et l’Inria. Son activité sera hébergée dans les locaux des IRT SystemX, à Saclay (Essonne), et Saint-Exupéry, à Toulouse (Haute-Garonne), où l’équivalent de 300 équivalents temps-pleins sera mobilisé. A cela s’ajoutera une dizaine de start-up, au moins, sélectionnées via un appel à manifestation d’intérêt lancé le même jour que ce programme – le plus important du plan AIForHumanity lancé en 2018 par Emmanuel Macron.
«Nous ne pouvons pas nous contenter du supposé miracle de l’intelligence artificielle dans nos industries», affirme Emmanuelle Escorihuela, présidente du comité de pilotage du programme. Pour expliquer le fonctionnement de ces algorithmes dont le parcours de décision est parfois opaque, «il va falloir lever des verrous scientifiques», estime-t-elle lors de l’événement de lancement, accueilli dans le flambant neuf centre de R&D de Valeo, à Créteil (Val-de-Marne). «L’originalité de Confiance.ai est d’associer à la recherche scientifique des enjeux industriels, souligne celle qui est par ailleurs experte en IA chez Airbus. Cela permet de cibler les bons verrous et de faciliter l’industrialisation des solutions». Car la vocation de Confiance.ai n’est pas académique, mais industrielle : le programme devra livrer dès les prochains mois une plateforme d’outils logiciels permettant l’intégration de l’IA dans des produits et services industriels critiques.
Mis à jour tous les ans, ces outils évolueront «de manière incrémentale vers les applications les plus critiques», souligne Emmanuelle Escorihuela. Ils devraient par exemple permettre d’accompagner le développement des technologies d’assistance à la conduire – jusqu’au véhicule autonome – ou encore la recherche de molécules médicamenteuses et la détection de cyberattaques. Des secteurs où l’erreur n’est pas permise.
Confiance by design et maîtrise des données
«L’IA est entrée dans nos vies via la recommandation de produits : si la publicité proposée ne vous correspond pas, ce n’est pas dramatique», compare David Sadek vice-président recherche, technologie et innovation de Thales. Alors que la Chine et les Etats-Unis sont devenus leaders incontestés dans ce domaine de l’IA grand-public, Confiance.ai ambitionne de positionner la France en champion de l’IA de confiance, à destination des usages industriels. Et espère que ses recherches pourront participer aux travaux de réglementation européenne de la technologie.
Pour y parvenir, le programme se structure autour de cinq axes de recherche : la caractérisation des algorithmes, la création d’IA de confiance "by design" (fiables dans leurs conception), l’ingénierie de jeux de données fiables, la maîtrise de l’ingénierie système fondée sur l’IA et la confiance dans les systèmes d’IA embarquée. Autant de problématiques qui demanderont d’intégrer des modèles mathématiques physiques dans les algorithmes d’apprentissage, de superviser l’évolution d’un algorithme au long de son évolution, mais aussi de surveiller la présence de biais dans leurs données d’apprentissage.
Des sujets qui occupent déjà les partenaires de Confiance.ai. A l’image de la start-up Numalis, qui développe un système d’explication du raisonnement d’algorithmes de réseaux de neurones, ou de la chercheuse du CEA Camille Dupont, dont les travaux visent à labelliser et étudier les jeux de données afin d’en garantir la fiabilité. «Avec l’IA, les données ont remplacé le code, estime-t-elle. Il faut s’assurer de leur qualité sur toute leur durée de vie, de la conception de la base à sa certification.»
Parmi d’autres, ces projets devraient être présentés plus en détail lors du prochain événement de communication de Confiance.ai, le 6 octobre à Toulouse. Y seront présentés les premiers objectifs du programme, ainsi que les premiers outils qu’il compte développer. Le rendez-vous est pris.



