Pourquoi et comment les armées s’intéressent aux robots tueurs

Un rapport parlementaire met en évidence une nouvelle course aux armements basés sur l’intelligence artificielle. Les Etats-Unis, la Russie et la Chine s’y intéressent afin d’acquérir la supériorité technologique sur l’adversaire. La France s’interdit l’emploi de systèmes d’armes échappant à tout contrôle humain.

Réservé aux abonnés
Robots militaires
Destinés à préserver la vie des soldats, les robots militaires disposent déjà d'une certaine forme d'autonomie.

Peut-on déléguer à des robots la fonction de tuer dans le cadre d’une opération militaire? Comment encadrer éthiquement et juridiquement ces nouvelles armes ? Comment les armées françaises doivent-elles se préparer à l’arrivée des robots tueurs ?

C’est à ces questions que devait répondre la mission d’information sur les systèmes d’armes létaux autonomes (SALA). Ses conclusions et recommandations ont été rendues publiques le 22 juillet par ses auteurs, Fabien Gouttefarde, député de l’Eure (La République en Marche) et Claude de Ganay, député du Loiret (Les Républicains).

Des armes autonomes, mais jusqu'à quel point ?  

La question des robots tueurs fait de plus en plus débat avec l’intégration croissante de technologies d’intelligence artificielle dans les systèmes d’armes. Mais existent-ils déjà vraiment ? Après sept mois d’étude et une trentaine d’auditions de militaires, de chercheurs, de juristes, de philosophes… les parlementaires ont reconnu avoir recueilli des avis diamétralement opposés. "Certains nous disaient qu’on s’intéressait à un sujet qui n’existait pas et d’autres au contraire qu’il s’agissait de la troisième révolution technologique dans le monde de la défense après l’invention de la poudre à canon et de l’arme nucléaire", souligne Fabien Goutteffarde.

Vos indices
Indices & cotations
Tous les indices

Un constat finalement normal, puisqu’il n’existe pas de définition universelle des systèmes d’armes létaux autonomes (SALA) ! "Si on définit l’autonomie de manière pure et parfaite, il n’existe pas de système d’armes capable de choisir et d’engager seul une cible sans intervention humaine dans un environnement changeant", affirme le député. Les systèmes d’armes automatisés ou encore les drones téléopérés, largement déployés sur les conflits, n’impliquent pas un tel niveau d’autonomie et ne sont pas donc pas considérés comme des robots tueurs.  

Le risque d'engrenage

Au-delà de cette bataille sémantique sur les robots tueurs, toutes les armées du monde s’y intéressent et prennent position. Les députés décrivent même un risque de surenchère dans ce domaine, en particulier de la part des grandes puissances militaires : pour minimiser les pertes humaines, les généraux russes auraient misé sur le remplacement de leurs soldats par des unités robotisées, amenant les Américains à faire de même s’ils étaient confrontés à une telle armée, alors que les militaires chinois s’y préparent intégrant à haute dose l’IA dans leurs nouveaux systèmes d’armes.

"Il y a une forme d’engrenage", alertent les rapporteurs. Leur document évoque des avancées technologiques réalisées par ces grandes puissances. Les États-Unis développent le Sea Hunter, navire autonome transocéanique de 60 mètres, dédié à la lutte anti sous-marine et capable de naviguer dans les eaux internationales en s’adaptant de manière autonome aux règles de navigation en vigueur. Dans le domaine naval, la Chine a conçu un sous-marin autonome HSU 001, de relative petite taille, afin de de mailler les océans. Quant à la Russie, elle mise avant tout sur la robotisation. Elle a développé un petit char capable de suivre un soldat et de tirer vers la même cible.

"Terminator ne défilera pas au 14 juillet"

Et la France dans tout ça ? La position française a été résumée par une formule choc par la ministre des armées Florence Parly à l’occasion d’un discours prononcé en avril 2019 sur l’usage de l’intelligence artificielle par les forces armées: "Terminator ne défilera pas au 14 juillet". Elle rappelait ainsi le refus catégorique de la France de confier la décision de vie ou de mort à une machine qui agirait de façon pleinement autonome échappant à tout contrôle humain. "De tels systèmes sont fondamentalement contraires à tous nos principes. Ils n’ont aucun intérêt opérationnel pour un État dont les armées respectent le droit international, et nous n’en déploierons pas", précisait-elle encore.

Face à ces différentes stratégies militaires, les auteurs du rapport estiment toutefois que le développement de systèmes d’armes toujours plus autonomes est inéluctable et qu’il faut même accompagner leur essor. "Il est important que la France et plus globalement l’Europe ne restent pas en marge de la révolution de l’intelligence artificielle. Ce n’est pas un choix envisageable. Au risque d’un déclassement stratégique, il faut faire de la recherche, faire des développements en matière d’intelligence artificielle de défense", préconisent les députés. Selon eux, l’autonomie des systèmes d’armes se trouve au coeur d’une nouvelle course aux armements et l’Europe doit en faire partie, tout en restant respectueuse des principes éthiques et du droit international humanitaire.

Newsletter La Quotidienne
Nos journalistes sélectionnent pour vous les articles essentiels de votre secteur.