Mené en toute discrétion depuis deux ans, l'un des projets les plus ambitieux d'Airbus se dévoile. Jeudi 12 janvier, l’avionneur européen a officialisé l’existence de DragonFly, un programme qui vise à repousser les limites de l’assistance au pilotage d’avions via une batterie de technologies, de l’intelligence artificielle à la reconnaissance vocale, en passant par la collecte massive de données. Démarrées mi-2022, les campagnes d’essais menées avec un A350-1000 continueront en 2023 et livreront leurs premiers résultats dans la foulée. L’Usine Nouvelle est allé à la rencontre de l’équipe chargée de ce démonstrateur qui donne à voir les systèmes de vols de demain, voués à devenir de plus en plus autonomes.
Le sujet est sensible. L’automatisation croissante des avions, mise en avant par le groupe comme facteur d'amélioration de la sécurité, est aussi source de défiance pour une partie des pilotes. D’autant qu’elle peut ouvrir la voie aux vols effectués avec un seul pilote dans le cockpit (SPO, pour single pilot operation), comme le souhaitent certaines compagnies aériennes soucieuses de réduire leurs coûts d’exploitation. Airbus n’est pas seul à aller dans cette direction : en novembre dernier, l’Agence européenne de la sécurité aérienne (AESA) a même préconisé de mettre en œuvre le SPO dès 2027, d’abord dans le fret. Si DragonFly correspond à un stade expérimental, certaines briques technologiques pourraient dans les prochaines années servir à accroître l'autonomie des systèmes de vols.
Savoir reconfigurer une trajectoire en permanence
Ce projet phare est piloté par Airbus UpNext, l’entité du groupe chargée d’éprouver les technologies de rupture, via une équipe d’experts basée à Toulouse (Haute-Garonne). Celle-ci n’est pas partie d’une feuille blanche. DragonFly constitue en effet la suite logique du projet ATTOL : lancé en 2018, il avait abouti en 2020 à des tests en vol concluants. « Le projet ATTOL a démontré que le décollage, l'atterrissage et le roulage pouvaient se faire sans intervention humaine, résume Isabelle Lacaze, chef du programme DragonFly. A partir de là, nous avons lancé des réflexions pour voir quels étaient les différents degrés d’assistance envisageables dans les avions. » Des travaux menés en collaboration avec des acteurs tels que Cobham, Collins Aerospace, Honeywell, Thales et le centre français de recherche aérospatiale (Onera).
BOUTET Herve A Toulouse, c'est l'entité Airbus UpNext, chargée d'évaluer les technologies de rupture, qui pilote DragonFly (copyright: Pascal Guittet)

- 95.92+1.23
9 Avril 2026
Pétrole Brent contrat à terme échéance rapprochée$ USD/baril
- 17093.18-0.23
Mars 2026
Cours mensuel du nickel - settlement$ USD/tonne
- 69.4+7.26
Février 2026
Cours des matières premières importées - Pétrole brut Brent (Londres) en dollars$ USD/baril
Parmi les axes majeurs de DragonFly : la possibilité de reconfigurer un vol à tout moment pour atterrir en urgence de manière automatique. Cette fonction pourrait s'avérer nécessaire en cas de dépressurisation de la cabine et d’une perte de capacités des pilotes, comme l’a prouvé le 14 août 2005 le cas du vol Helios Airways 522, qui s'est achevé par un crash de l'appareil en Grèce. Mais comment sélectionner l’aéroport ? Quelle route emprunter ? L’objectif est de rendre l’appareil lui-même force de proposition. « Cela nécessite de développer un logiciel capable de proposer en permanence une nouvelle trajectoire possible en cas de besoin », détaille Fabien Perrin, directeur technique. D’où le développement au sein d’Airbus UpNext d’algorithmes capables de faire des choix.
Des collisions au sol qui pourraient être évitées
Distance par rapport à la piste, conditions météo, encombrement de l’aéroport, état de la piste… Une fois ce choix réalisé, l’appareil doit pouvoir calculer la configuration de la nouvelle trajectoire. « Le calcul d’une nouvelle trajectoire possible s’effectue en permanence, mais les pilotes peuvent bien sûr reprendre la main », précise Thomas Pastre, responsable technique navigation. Pour être mise en œuvre, la solution nécessiterait un logiciel embarqué, un système de guidage sécurisé et un calculateur dédié. « Nous sommes déjà en lien avec le contrôle aérien pour vérifier que notre solution est acceptable et qu’elle permet une bonne intégration des appareils dans le trafic aérien », souligne Anaïs Mermet, coordinatrice opérationnelle.
L’assistance aux pilotes au sol constitue elle aussi un enjeu de sécurité aérienne, comme l’a rappelé en novembre dernier la violente collision entre un avion et un véhicule de pompiers à l’aéroport de Lima (Pérou). Compréhension des autorisations du contrôle aérien, pilotage sur les voies de circulation, communication avec les PNC, contrôle de l’état visuel de la piste… Sur le tarmac, au moment du roulage, les pilotes sont aux aguets. Et cette charge augmente avec la hausse du trafic aérien. Pour faciliter cette phase, les équipes d’Airbus UpNext se sont attaqués à l’une des principales difficultés : la communication orale entre les pilotes et le contrôle aérien.
Le WhatsApp de l'aérien arrive
« L’idée est d’assister l’équipage à l'aide d'un système écrit type WhatsApp permettant la retranscription de tous les messages échangés, grâce à la reconnaissance vocale », glisse Laura Fersing, spécialiste facteur humain et opérations. Un système développé en collaboration avec l’entreprise française Vocapia Research, basée à Orsay (Essonne). Lui est associée une cartographie précise de l’aéroport pour guider les pilotes dans leur roulage. Mais chez Airbus UpNext, les regards se tournent aussi vers… l’automobile. « Au sol, l’idée est de transposer en grande partie ce qui existe dans l’automobile, lance Laura Fersing. Dans le transport aérien, au sol, on est comme dans une voiture. »
Des exemples ? La vitesse de l’appareil au sol pourrait aussi être régulée de manière automatisée pour éviter les à-coups. Des tests ont été réalisés avec des caméras disposées à différents endroits d’un appareil en vue d’offrir aux pilotes des images qui leur permettraient de voir tout autour de l’avion et non plus seulement devant. « L’intelligence artificielle pourrait en outre servir à assurer la reconnaissance automatique des éléments présents sur les routes, imagine Benjamin Mazoin, designer d’interface cockpit. Une alerte sonore indiquerait aux pilotes l’imminence d’une collision, comme ce qui existe sur les véhicules modernes. »
BOUTET Herve Les experts de DragonFly emmagasinent le maximum de données pour améliorer l'efficacité de leurs systèmes (copyright: Pascal Guittet)
Quand l'intelligence artificielle s'emmêle
L’atterrissage, phase la plus critique, est elle aussi dans le collimateur de DragonFly. Le constructeur européen cherche à s’assurer que le pilote peut atterrir à tout moment, dans toutes les conditions, quel que soit le niveau d’équipements des aéroports. Pour y parvenir, les informations pourraient être recueillies via des capteurs spécifiques tels que des caméras classiques, des caméras infrarouges et des radars, puis analysées via des algorithmes de traitement d’image. « Les résultats des algorithmes sont ensuite fusionnés avec toutes les données issues des capteurs et permettent de guider l’avion, complète Nuria Torres Matabosch, spécialiste de la vision par ordinateur. Des simulations ont été menées avec des atterrissages en visibilité réduite. »
Cette automatisation généralisée suppose, comme dans le cas de l’automobile, une collecte massive de données pour fournir aux différents systèmes de quoi apprendre. « C’est ce qui va nous permettre d'entraîner des algorithmes de vision par ordinateur pour les phases d'atterrissages et de roulage », signale Guillaume Gennatas, responsable du programme pour la collecte massive de données. Une première compagnie aérienne va en exploiter une en 2023 pour commencer à emmagasiner des données réelles, quelles que soient les conditions météorologiques. Pas de doute: en plus d'avoir des ailes, la future génération d'avions aura aussi des yeux.



