La recherche progresse vers une IA certifiable pour le vol

L’institut interdisciplinaire d’intelligence artificielle de Toulouse travaille sur plusieurs projets afin de développer une IA hybride, plus fiable et plus robuste, qui réponde aux exigences de sécurité des systèmes critiques embarqués à bord des avions.

Réservé aux abonnés
Image d'illustration de l'article
Les algorithmes de la librairie Xplique révèlent les éléments sur lesquels l’IA fonde sa décision pour détecter une piste d’atterrissage.

En juin 2020, un Airbus A350-1000 s’est posé à plusieurs reprises sans intervention manuelle de son pilote : une intelligence artificielle fondée sur de l’apprentissage automatique a identifié la piste d’atterrissage, au travers d’un réseau de caméras fixées à l’appareil, et a procédé aux manœuvres adéquates. C’était l’aboutissement du projet Attol (Autonomous taxi, take-off and landing), lancé par Airbus deux ans plus tôt. L’avionneur a enchaîné avec le projet Dragonfly et teste des fonctions de vol automatisées, comme le déroutement d’urgence si les pilotes sont dans l’incapacité de poursuivre leur mission.

L’industrie aéronautique a bien l’intention de dépasser le stade de l’expérimentation et de faire monter une IA opérationnelle à bord des avions. «L’IA statistique, fondée sur l’apprentissage automatique, est meilleure que l’humain pour certaines tâches de type système 1, qui impliquent l’instinct et les réflexes [la dualité système 1-système 2, ce dernier se référant au raisonnement, a été introduite par le psychologue Daniel Kahneman, ndlr]», justifie Grégory Flandin, le directeur du programme IA pour les systèmes critiques à l’Institut de recherche -technologique Saint-Exupéry, qui collabore aussi avec l’Artificial and natural intelligence Toulouse institute (Aniti), un institut interdisciplinaire d’intelligence articifielle.

«L’IA soulagerait la charge cognitive des pilotes et, reconnaissant une piste d’atterrissage, améliorerait même certaines prises de décisions, poursuit-il. Cependant, si la machine fait mieux en moyenne, la survenue d’un problème reste le cas le plus problématique à gérer.» Les réseaux de neurones, malgré leurs performances impressionnantes, notamment dans les applications ayant trait à la perception, sont toujours susceptibles de donner des résultats farfelus et inexplicables. En l’état actuel, il est impossible de leur faire confiance pour assurer des fonctions de vol critiques comme le décollage et l’atterrissage, alors que des vies humaines sont en jeu. «Nous avons besoin de davantage de garanties pour espérer mettre l’IA à bord des avions», souligne Grégory Flandin.

Des modèles allégés et sûrs

C’est l’enjeu du projet franco-québécois Deel (Dependable and explainable learning), doté de 30 millions d’euros. Lancé en 2019, il fait aujourd’hui partie intégrante du programme Aniti. Il s’agit de développer des briques technologiques d’IA fiables, explicables et certifiables, qui puissent s’appliquer à des systèmes critiques. Ce projet a donné lieu à des dizaines de publications scientifiques et à un livre blanc sur l’apprentissage automatique (défis, approches techniques, actualisation des standards…), qui a inspiré notamment l’Agence européenne de sécurité aérienne dans la rédaction de ses lignes directrices sur l’IA. Deel est également fructueux sur un plan technologique. «Nous avons conçu des méthodes, aujourd’hui matures, qui donneront des garanties de fonctionnement sur des modèles à réseaux de neurones de faible dimension [qui reçoivent un nombre réduit de variables en entrée, ndlr]», signale Romaric Redon, ancien coordinateur de la feuille de route IA d’Airbus et directeur opérationnel d’Aniti depuis le début de l’année.

Image d'illustration de l'articleH. Goussé / Master Films / Airbus
L'A350 MSN59 a ete modifie pour accueillir le demonstrateur DragonFly. Capteurs L'A350 MSN59 a ete modifie pour accueillir le demonstrateur DragonFly. Capteurs

Avec les projets Attol et Dragonfly, Airbus a déjà fait la démonstration de fonctions de vol automatiques comme l’atterrissage grâce à des caméras et de l’analyse d’images par apprentissage. Mais le déploiement opérationnel d’une telle IA attendra encore des années. © H. Goussé / Master Films / Airbus

Les chercheurs ont notamment travaillé sur le développement d’un système anticollision (Acas), tel que ceux équipant les grands drones, à base d’IA statistique. Un Acas classique se fonde sur des tables de correspondances entre les paramètres de la situation et les actions à effectuer pour éviter la collision. Ces tables sont prédéterminées au sol par de complexes simulations d’un modèle physique qui calculent l’ensemble des trajectoires et manœuvres d’évitement dans toutes les situations possibles. Reste que l’utilisation en vol de ces tables nécessite encore beaucoup de ressources informatiques embarquées. D’où l’idée de les remplacer par un modèle allégé à base de réseaux de neurones entraîné à reproduire les correspondances entre un nombre réduit d’entrées – vitesse de chaque avion, angle de leur trajectoire et distance – et les manœuvres préconisées par le modèle physique.

L’enjeu est alors de savoir si ce modèle allégé est fiable. Pour s’en assurer, les chercheurs ont développé «des outils permettant de garantir que les approximations faites par ces modèles de substitution sont sûres, affirme Romaric Redon. Ce sont à la fois des garanties statistiques et formelles de leur robustesse : après introduction de perturbations qui se propagent dans le réseau de neurones, on parvient à calculer les bornes minimales et maximales en sortie.» Autrement dit, l’amplitude maximale des erreurs que peut commettre le réseau des neurones est connue. Résultat : «On serait capable de certifier des modèles embarquables dans des systèmes critiques, avec un niveau de confiance satisfaisant», stipule le spécialiste, qui précise qu’il n’y a pas de feuille de route pour l’intégration de cette fonction.

L’Aniti a par ailleurs développé six librairies d’algorithmes pour améliorer les propriétés (explicabilité, robustesse…) et la compréhension du fonctionnement des modèles de grande dimension analysant des images ou de la voix. L’un des objectifs serait de concevoir une IA capable de détecter une piste d’atterrissage de manière fiable, en vue d’une certification. Les réseaux de neurones règnent ici en maîtres. «Il est impossible de symboliser mathématiquement une piste d’atterrissage, fait remarquer Grégory Flandin. C’est la force de l’IA moderne, qui s’abstrait du symbolisme et s’appuie sur des données.» Les librairies de l’institut Aniti invitent les ingénieurs à se plonger au cœur de ces «boîtes noires» pour cerner les groupes de caractéristiques sur lesquels l’IA a réalisé son apprentissage et fonde sa décision. «Elles permettent de lisser les biais et de corriger les algorithmes en les contraignant à suivre des règles que l’ingénieur concepteur considère appropriés pour ce type de décision», détaille Grégory Flandin.

Une exigence de robustesse

Exemple avec l’outil Craft inclus dans la librairie Xplique. «Concernant la détection de piste d’atterrissage, nous aimerions voir apparaître le concept du piano [une alternance de bandes sombres et blanches indiquant le début de la piste, ndlr], qui serait validé par l’humain. Il serait intéressant au même titre qu’une tour de contrôle jouxtant cette piste, confie Grégory Flandin. Le manque de netteté de l’image serait un concept invalide. On pourrait ensuite appliquer des règles sur la base de ces concepts, qui entérineraient la prise de décision de l’IA.» On peut aussi mentionner les librairies Influenciae, qui déterminent les images les plus influentes durant la phase d’apprentissage, Oodeel, qui élimine les résultats hors de la distribution normale (une piste ne peut se trouver dans un nuage…) ou encore Deellip, qui permet d’insérer dans le modèle des couches neuronales de Lipschitz.

«Le réseau de neurones résultant est moins performant qu’un réseau classique, mais plus robuste aux attaques adverses – la robustesse étant privilégiée en aéronautique, commente Romaric Redon. Il sera toujours possible de tromper l’IA, par exemple en effaçant le piano de la piste, mais on s’en rendra compte.» Toutes ces librairies, agnostiques, ont été transférées chez les différents partenaires industriels du projet Deel, comme Airbus et Thales.

Si la certification des systèmes exploitant des modèles d’IA à basse dimension ne devrait plus tarder, l’échéance est plus lointaine pour les modèles à très haute dimension. «Nous avons beaucoup progressé, cependant cela reste très compliqué, reconnaît Grégory Flandin. Les outils que nous avons développés sont matures mais ils ne traitent qu’une partie du problème, ce qui empêche une certification de bout en bout.» Même s’ils améliorent la confiance que l’on peut avoir dans l’IA à usage aéronautique, ces outils sont encore loin de remplir les conditions les plus strictes en matière de sécurité aérienne. À savoir un incident par milliard d’heures de vol. 

Des autorisations de vol dès 2025

«La certification de l’IA de niveau 1, assistant le pilote ou le contrôleur – qui garde le contrôle des opérations – est prévue en 2025», indique Guillaume Soudain, le chef du programme IA de l’Agence européenne de la sécurité aérienne (Easa). La mise en service dans les avions civils pourrait advenir peu après. Un standard industriel pour ce type d’IA est en développement. Il vise à être reconnu par l’Easa comme étant conforme aux spécifications de certification.

Piloté par les organismes de standardisation SAE et Eurocae, il se nomme ED324 en Europe, ARP6983 aux États-Unis. «Le niveau de sécurité reste le même, mais nos cadres d’assurance de développement doivent être adaptés au machine learning», explique Guillaume Soudain. Depuis l’établissement en 2020 de sa feuille de route spécifique à l’IA, l’Easa a livré en 2021 un premier guide permettant d’obtenir une certification en condition spéciale.

Ce dernier terme signifie qu’«on peut avancer alors que le cadre réglementaire n’est pas encore fixé, explicite Guillaume Soudain. C’est possible car le risque d’une IA de niveau 1 est limité et appréhendable.» La finalisation est attendue en 2026. La certification d’une IA de niveau 2, un copilote virtuel, n’est pas envisagée avant 2035. Et plus tard encore pour le niveau 3 d’automatisation, celui exigé pour les taxis volants, par exemple. 

Newsletter La Quotidienne
Nos journalistes sélectionnent pour vous les articles essentiels de votre secteur.