Les pays à la manœuvre pour réglementer les systèmes d’intelligence artificielle

Après le G7 et son code de bonne conduite, 28 Etats signent la déclaration de Bletchkey qui vise à garantir le développement et la mise en œuvre d'une intelligence artificielle sûre. La Chine se retrouve aux côtés des Etats-Unis et de l'Europe. Que recouvre cette déclaration ? Où en sont rendus les pays dans la réglementation ? L'Usine Nouvelle fait le point.

Réservé aux abonnés
Bletchkey Park
Le Sommet sur la sécurité de l’IA s'est tenu à Bletchkey Park où Alan Turing a décrypté le code utilisé par les Allemands durant la Seconde guerre mondiale.

Créer une arme chimique ou bactériologique, menacer les démocraties, prendre le contrôle d’une infrastructure critique… Voici quelques risques listés par le G7 dans son code de bonne conduite qui «vise à promouvoir une IA sûre, sécurisée et digne de confiance». Sur onze pages, les États signataires égrènent des actions – couvrant la conception, le développement, le déploiement et l’utilisation de systèmes d’IA avancés – pouvant être prises par les entreprises qui le souhaitent.

Hasard du calendrier, la signature de ce code de bonne conduite est suivie du Sommet sur la sécurité de l’IA organisé à Bletchkey Park, au Royaume-Uni, les 1er et 2 novembre. La déclaration de Bletchley qui en découle stipule que les États doivent «garantir que l’IA soit développée et déployée de manière sûre et responsable au profit de la communauté internationale.» Cet accord est signé par 28 pays dont la Chine, les États-Unis et l'Union européenne qui s’engagent à identifier les risques liés à l’IA et jeter les bases d’une réglementation.

Déjà des réglementations nationales

«Cela fait un moment qu’on ne parle plus seulement d’éthique mais aussi de réglementation», affirme Raja Chatila qui a participé au premier groupe de travail lancé par la Commission européenne en vue de l’établissement de l’IA Act, dont l’adoption pourrait avoir lieu d’ici la fin de l’année. L’Union européenne n’est pas la seule à légiférer. La Chine et les États-Unis se dotent également de réglementations.

Un foisonnement législatif qui n’empêche pas l’établissement de grands principes assez similaires. «L’engagement de la responsabilité des entreprises qui diffusent les systèmes d’IA, la production de systèmes d’IA non discriminants, transparents, respectueux des données des personnes et sûrs dans leur fonctionnement» se retrouvent dans ces différents textes, souligne le professeur émérite à Sorbonne Université et spécialiste de l’éthique. Reste des divergences qui semblent irréconciliables, sur le cadre idéologique : en Chine, le respect de la politique menée par le parti communiste au pouvoir est de mise, alors que l’Europe entend imposer le respect de la Charte des droits fondamentaux de l’UE.

Ne pas se laisser distraire par les risques existentiels

Au-delà des démarches entreprises par ces pays, des discussions au niveau international visent à émettre de grands principes sur lesquels les États se retrouvent. Côté gouvernance, le Sommet sur la sécurité de l’IA pourrait esquisser les contours d'un organisme équivalent au GIEC (l'organisme intergouvernemental chargé d'évaluer l'ampleur, les causes et les conséquences du changement climatique) sur l’IA.

Un autre sommet, piloté par la Corée du Sud, doit se tenir à distance dans les mois à venir. Une autre réunion aura lieu en France dans un an. Mais gare aux débats qui s'enlisent et aux entreprises qui cherchent à limiter au maximum les effets d’une éventuelle réglementation. Il faut également «se méfier du discours de certaines entreprises assurant que c’est à elles de régler le problème car elles connaissent mieux [la technologie, Ndlr]», ajoute Raja Chatila. La présence des entreprises privées dans les débats semble aujourd’hui incontournable. Aux acteurs étatiques de réussir à faire contrepoids pour protéger les citoyens.

Un autre écueil à éviter est celui du risque existentiel. Certaines discussions mettent en avant des systèmes d’IA qui pourraient menacer l’humanité, soit parce qu’ils n’ont pas bien été conçus soit parce qu’ils sont utilisés par des personnes malveillantes. «Il ne faut pas tomber dans le piège du risque existentiel, temporise Raja Chatila. Cela impressionne d’entendre que l’IA peut remettre en cause l’existence de l’humanité, mais ce n’est pas comparable, je pense, à une pandémie ou au risque nucléaire.» Et la mise en avant de ces risques existentiels peut détourner l'attention des risques déjà présents dans les systèmes d’IA existants…

Un frein à l’innovation ?

Ces réglementations sont-elles un frein à l’innovation ? «Au contraire, la réglementation favorise l’innovation car elle établit un cadre qui peut se traduire par des standards», affirme Raja Chatila. La mise en place des mécanismes nécessaires pour respecter la réglementation est coûteuse, mais cela peut aussi être perçu comme une image de marque pour les entreprises afin de rassurer les utilisateurs, estime-t-elle. Pour les entreprises, tout l’enjeu est de pouvoir participer aux discussions qui aboutiront aux différentes réglementations. Il faut des porte-paroles pour représenter les plus petits acteurs qui n’ont pas forcément les moyens d’être partie prenante dans ces instances de normalisation.

Lors des discussions à Bletchley, ce sont essentiellement des entreprises anglo-saxonnes qui étaient représentées comme Microsoft, Google, OpenAI et Infection. Côté français, le deuxième jour, seule la pépite MistralAI était présente. Dans ce secteur dominé par des entreprises américaines, «il faut avoir des discussions plus équilibrées. L’Europe doit jouer un rôle plus actif à la fois sur le plan du développement des entreprises européennes, de la réglementation et de la recherche», déclare le professeur émérite. Côté réglementation, le Vieux Continent semble vouloir prendre de l’avance avec l’IA Act. En parallèle, plusieurs pépites françaises commencent à faire parler d’elles comme MistralAI et LightOn. Mais «la recherche publique est délaissée dans les discours aujourd’hui», analyse Raja Chatila. La recherche est pourtant la source de ces systèmes d’IA.

Newsletter La Quotidienne
Nos journalistes sélectionnent pour vous les articles essentiels de votre secteur.