Chronique

La réglementation européenne de l’intelligence artificielle, un choix éthique... et stratégique

La Commission européenne dévoile enfin son projet de réglementation de l'intelligence artificielle. Poussant à l'éthique des systèmes, il vise aussi à soutenir les entreprises européennes. La chronique de Marion Garreau, cheffe du service Innovation.

Réservé aux abonnés
Surveillance
Le projet européen de réglementation de l’IA interdit les systèmes de « surveillance généralisée » de la population, ceux « utilisés pour manipuler le comportement, les opinions ou les décisions » des citoyens, et les systèmes de « notation sociale » des individus. Exceptés s’ils sont déployés par des institutions publiques pour des raisons de sécurité.

Une première mondiale. La Commission européenne doit publier, mercredi 21 avril, son projet de réglementation de l’intelligence artificielle. Un acte qu’aucun Etat ou regroupement d’Etats n’avait réalisé jusqu’à présent. L’enjeu : s’assurer que les dispositifs d’IA déployés sur le territoire européen favorisent le bien-être des individus et le bien commun. Pour cela, d’après les premiers éléments qui ont fuité avant la publication officielle du projet de règlement, la Commission mise sur l’encadrement des applications jugées « à haut risque », avec des normes à respecter et une certification à obtenir avant la mise sur le marché.

Sont notamment visés l'identification biométrique à distance dans les lieux publics, les systèmes de priorisation des services d'urgence, les outils utilisés pour le recrutement, ceux d’évaluation de la solvabilité des personnes.

Avec ce texte, l’Union européenne confirme son choix de vouloir offrir une troisième voie dans le développement de l’IA, entre celle américaine d’un marché roi et celle chinoise au service d’un Etat qui contrôle son peuple. L’Europe base sa réglementation sur l’éthique afin de développer et promouvoir une IA de confiance, au service de l’humain.

Des normes qui s'imposent aux entreprises européennes comme étrangères

Mais ne soyons pas naïfs ! L’une des raisons qui pousse l’UE à faire ce choix est exactement la même que celle qui pousse les Etats-Unis et la Chine à ne pas réglementer : défendre les intérêts de son industrie. « Les acteurs américains et chinois dominent aujourd’hui le marché mondial de l’IA, observe ainsi Raja Chatila, professeur émérite à Sorbonne Université et membre de nombreuses institutions travaillant sur l’éthique dans l’IA. Ces pays ne réglementent pas parce que la loi de Jungle favorise leurs entreprises. A l’inverse, si l’Europe veut s’imposer dans le domaine, elle n’a pas le choix. Elle doit développer l’IA autrement, avec des investissements appropriés, imposer des règles qui deviennent des normes. »

Le projet de règlement du 21 avril va précisément dans ce sens. Les normes européennes qu’il définit vont s’imposer à tous, entreprises européennes comme étrangères. Ainsi, celles qui font fi de l’éthique dans leur pays seront obligées de s’adapter pour attaquer le marché européen. A l’inverse, les entreprises européennes qui ont suivi de près le cheminement de l’Europe, qui se dessine depuis 2018, et qui auront intégré les exigences éthiques au cœur de leur modèle – en travaillant par exemple sur la transparence des algorithmes ou sur la lutte contre les biais – auront un avantage compétitif. Si la réglementation est souvent critiquée comme un frein à l’innovation par ses détracteurs, l’Europe tente ici de s’en servir, au contraire, pour soutenir les entreprises innovantes de son territoire.

Newsletter La Quotidienne
Nos journalistes sélectionnent pour vous les articles essentiels de votre secteur.