Pour quelle raison une intelligence artificielle moderne, bâti sur des réseaux de neurones profonds, prend telle ou telle décision ? Difficile, voire impossible à dire. Une ignorance qui entrave la généralisation dans l’industrie de cet outil numérique, en dépit de sa puissance.
Née en avril 2023, la jeune entreprise Xpdeep se propose d’éclairer l’intérieur des fameuses « boîtes noires » constitutives de ces IA – une expression qui reflète leur opacité – et d’en restituer le raisonnement, en quelque sorte. Sa plateforme logicielle « as a service », hébergée dans le cloud, sera commercialisée à partir de janvier 2024. Fin novembre 2023, une première version d’essai sera mise à disposition des industriels.
Xpdeep est l’un des lauréats du concours d’innovation i-Lab, millésime 2023, et aussi « l’une des trois entreprises financées par le programme Confiance.ai pour travailler sur les données de ses partenaires », signale Ahlame Douzal, enseignante-chercheuse au laboratoire d’informatique de Grenoble (LIG) de l’université Grenoble-Alpes, et cofondatrice de cette deeptech avec Stanislas Chesnais. L’une et l’autre se sont rencontrés par l’intermédiaire de Linksium, société d’accélération du transfert de technologies.
L'explication, facteur d'adoption
Initié en 2021, le programme Confiance.ai, auquel participe Airbus, Renault, Safran, Air Liquide ou encore Thales, vise la conception d’une IA dite de confiance. Une notion qui repose notamment sur l’explicabilité, dont Ahlame Douzal souligne l’importance : « Une IA explicable permet d’accélérer les temps de développement, son adoption est favorisée car elle est transparente, et on peut justifier sa conformité réglementaire ou éthique auprès des régulateurs. »
Xpdeep capitalise sur les travaux scientifiques du LIG. Sa genèse vient d’une ancienne collaboration d’Ahlame Douzal avec le milieu hospitalier. « Les modèles deep learning étaient certes plus performants que les autres techniques d’apprentissage automatique (machine à vecteur de support et forêt d’arbres décisionnels) pour prédire l’agressivité de cancers de la prostate, raconte-t-elle, mais nous ne pouvions pas expliquer leurs décisions aux cliniciens, qui ont dès lors privilégié des modèles linéaires plus simples. »
Cette expérience a été un déclic. Ahlame Douzal et ses collègues ne se sont pas détournés des modèles d’apprentissage profond mais ont œuvré pour leur transparence. « La performance seule ne suffit pas quand cela touche la santé des gens », résume-t-elle.
Goûter la recette ne suffit pas
La recette de Xpdeep pour accomplir un apprentissage profond auto-explicable est gardée secrète et fait l’objet d’un dépôt de brevet. Ce qui n’empêche pas Alhame Douzal d’employer une métaphore culinaire pour en décrire le concept.
« Le deep learning, c’est comme un cuisinier qui réalise un mets porte fermée. Grâce à certaines méthodes passives, on peut deviner la recette en la goûtant à l’aveugle pour reconnaître les ingrédients. Mais l'on ne connaît pas précisément tous les ingrédients et leurs quantités, par exemple.»
Les méthodes passives dont il est question existent depuis une dizaine d’années. Ahlame Douzal fait mention de Lime (local interpretable model-agnostic explanations) et Shap (shapley additive explanations), héritée de la théorie des jeux.
« Ces approches agnostiques ne se préoccupent pas de la boîte noire et ne touchent pas au modèle, précise-t-elle. Opérant de l’extérieur, elles établissent des correspondances approximatives entre les entrées et les sorties du modèle mais elles n'exposent pas les processus mis en œuvre par le modèle, par exemple. »
Une lacune que viendrait combler la technologie de Xpdeep. Ahlame Douzal file la métaphore : « Notre logiciel est un cuisinier qui accompagne le chef dans la préparation de la recette et qui, en sortant de la cuisine, peut la restituer de manière plus précise complète. »
Extraire du sens grâce à des fonctions mathématiques
Techniquement parlant, le logiciel de Xpdeep utilise des ingrédients de base, comme les fonctions de convolution, pour former l’architecture d’un modèle auto-explicable. Mais il sème des éléments pour mettre au jour leur fonctionnement de manière intelligible par un humain.
« Un modèle deep learning effectue des plongements dans un espace, c’est-à-dire qu’il projette les données d'entrée dans des espaces de plus en plus complexes, de couche en couche, de manière à corréler plus facilement les données, détaille Ahlame Douzal. Par exemple, si la séparation entre des points bleus et des points rouges était impossible au début, faute de linéarité, elle finit par le devenir au fil des prolongements. Notre logiciel greffe des fonctions mathématiques à ces plongements pour extraire des informations qui auront du sens. »
Et cela, sans nuire aux performances. Un test mené sur des séries temporelles multivariées – 20 000 individus portant chacun des capteurs et exécutant des tâches – a permis d’identifier les activités humaines avec un taux de réussite de 93%.
Soit autant qu’un modèle d’IA classique. A la différence près que Xpdeep produit un graphe décisionnel. « Celui-ci montre progressivement l’ensemble des décisions que le modèle a appris dans les espaces latents intérieurs pour segmenter la population de données, indique Alhame Douzal. Ainsi peut-on identifier les capteurs les plus discriminants dans cette segmentation. Xpdeep fait aussi de la localisation temporelle de ces décisions. »
Eliminer le superflu pour améliorer les performances
Selon Ahlame Douzal, un constructeur automobile s’est montré intéressé par cette démonstration, pour la transférer au cas concret des capteurs équipant les véhicules électriques. « On peut découvrir les composants inutiles dans la prise de décision et donc réaliser des économies en les supprimant, argumente-t-elle. L’explicabilité permet de favoriser l’adoption de l’IA mais c’est un aussi un vecteur d’amélioration des performances : on peut entraîner et valider un nouveau modèle d’IA sans capteurs superflus. »
La technologie de Xpdeep peut s’appliquer à tout type de données pour tout type de marché, d’après la chercheuse, qui endosse le rôle de directrice scientifique de la deeptech. « Mais notre fil rouge sont l’IoT et les séries temporelles, qui sont négligés par les Gafam selon une étude de McKinsey. » Des discussions avec quelques gros acteurs de l’industrie manufacturière sont engagées.



