« Nous avons besoin de vous : s’il-vous-plaît, arrêtez cette course de la précision à outrance. » Voilà l’appel poli lancé aux chercheurs académiques dans l'intelligence artificielle (IA) par Adrien Gauffriau, ingénieur et data scientist chez Airbus, lors du forum MobiliT.AI, qui s’est tenu en ligne du 10 au 12 mai.
Porté par le projet franco-canadien DEEL (DEpendable & Explainable Learning), l’événement international a réuni les experts du monde industriel et académique de l’IA pour les systèmes critiques dans le domaine du transport et de la mobilité (aéronautique, automobile, rail, espace, etc). La dernière journée, consacrée au développement de l'IA embarquée, s’est conclue par une table ronde.
L’occasion pour Adrien Gauffriau et les autres acteurs présents d’exprimer la même demande : l'IA embarquée doit bénéficier de plus d'attention de la part des chercheurs académiques, des fabricants de hardware et des fournisseurs de frameworks (infrastructure logicielle de développement des modèles d'IA). Les applications de l'IA dans la mobilité ont des contraintes peu compatibles avec la quête de performance maximale dans la précision des prédictions.
Des modèles souvent adaptés a posteriori
Les intervenants ont ainsi pointé le manque de modèles de machine learning nativement adaptés aux contraintes matérielles des applications embarquées en termes de capacité de calcul, de mémoire et de consommation d'énergie. « À l'heure actuelle, les modèles sont le plus souvent adaptés a posteriori, a déploré Patrick Perez, directeur scientifique de Valeo AI, lors de la table ronde. On apprend d’abord avec le maximum de capacité [dans le cloud, par exemple, ndlr] à un réseau de neurones qui va faire au mieux la tâche visée, avant de “comprimer“ le réseau. »
Les choses évoluent, cependant, comme l'a expliqué Patrick Perez : « La recherche commence à s’intéresser à l’intégration de ces contraintes en amont, pour faire émerger des réseaux naturellement frugaux, tout en limitant la perte de précision. » L’idéal : intégrer les contraintes de l'embarqué dès le design du modèle. « Le champ de recherche existe mais reste à développer », a complété Sébastien Gerchinovitz, chercheur à l’IRT Saint Exupéry et Aniti.
Evolution trop rapide des frameworks
Autre grief des spécialistes de l'IA embarquée pour la mobilité : la rapide évolution des frameworks. Qui peut avoir pour conséquence d'exporter un modèle d'IA sur un support embarqué possédant une version différente de framework. « C'est inadmissible dans le cadre d’applications critiques », s'est insurgé Adrien Gauffriau.
L’ingénieur d'Airbus a reproché par ailleurs au secteur le manque de supports hardware dédiés : « Des architectures de calcul plus déterministes comme celles des TPUs [processeurs tenseurs] sont sans doute plus adaptées, mais on s’accroche aux GPUs [processeurs graphiques] qui ne sont pourtant pas faits, à l’origine, pour l’embarqué. »
« Revisiter toute l'ingénierie des systèmes »
Le développement d'architectures de calculs spécifiques pourrait même être l’une des clés de l’IA de confiance, via la création d’une architecture protectrice des algorithmes - garantissant un certain nombre d’opérations ou l’absence d’erreurs critiques à certains points de leur exécution, par exemple.
Juliette Mattioli, expert senior en intelligence artificielle à Thales, a ainsi invité à « revisiter toute l'ingénierie des systèmes, de l’algorithmie et de la sécurité » pour redéfinir les pratiques... « Et tant pis pour quelques points de précision », a conclu Adrien Gauffriau.



