Entretien

Sur la reconnaissance faciale, "il faut sortir d'un débat partisan", estime Valérie Fernandez

La professeure à Télécom Paris et titulaire de la chaire de recherche identité numérique responsable appelle à débattre de la reconnaissance faciale à partir d’expérimentations pour en saisir tous les enjeux.

Réservé aux abonnés
Valérie Fernandez
Valérie Fernandez, Professeure à Télécom Paris et titulaire de la chaire de recherche identité numérique responsable.

L'Usine Nouvelle. - Vous travaillez sur l’innovation responsable. Qu’est-ce que cela signifie ?

Valérie Fernandez. - Dans cette approche, la technologie n’est pas seulement vue comme un projet industriel, mais inscrite dans un projet sociétal. Cela invite à plus de transparence et de dialogue entre les différentes parties prenantes. Notre chaire a été créée il y a presque deux ans à l’initiative de Gemalto, racheté depuis par Thales. De plus en plus, les industriels veulent réfléchir à leurs pratiques, les enrichir et les mettre à distance grâce aux travaux de chercheurs externes, notamment sur les enjeux éthiques et sociétaux.

Pourtant, dans la reconnaissance faciale comme dans la 5G, on a le sentiment que les choix technologiques s’imposent au citoyen...

Ces technologies sont portées à travers des projets industriels trop peu ouverts aux préoccupations de l’utilisateur final, le citoyen. La réflexion sur leur développement devrait intégrer toutes les parties prenantes, y compris des représentants de la société civile. Mais ces mêmes citoyens doivent, de leur côté, être conscients de leurs usages ordinaires. Sur la 5G, beaucoup ont des craintes légitimes sur l’exposition aux radiofréquences. Mais si l’on bloque son déploiement, ces mêmes personnes pourraient s’insurger, dans quelques années, de ne pas avoir le débit souhaité.

Le citoyen est dans une grande ambiguïté. Le « paradoxe de la vie privée » l’illustre : ils expriment une volonté de respect de leur vie privée dans la gestion de leurs données personnelles sur internet, mais oublient cette éthique de conviction dans leurs pratiques ordinaires. Chacun doit en prendre conscience.

Le débat sur la reconnaissance faciale reprend les arguments de celui sur les empreintes digitales il y a vingt ans. Pourquoi n’arrivons-nous pas à avancer sur ces sujets ?

Parce que l’on n’apprend pas et que l’on n’objective pas. La médiatisation n’y est pas étrangère. Elle implique un processus de simplification de l’analyse qui fait basculer dans les extrêmes. Il faut sortir d’un débat partisan. La réflexion doit porter sur les enjeux de l’expérimentation dans son ensemble, en incluant les aspects de souveraineté numérique et de contrôle. Pour beaucoup, les débats actuels confondent les technologies d’authentification et d’identification. Commençons par les distinguer pour clarifier l’objet de la discussion et éviter de créer de la défiance.

C’est-à-dire ?

Les technologies d’authentification, qui permettent de vérifier l’identité d’un individu, sont matures et très utiles pour ouvrir un compte en ligne, effectuer des démarches administratives. Surtout au vu des problèmes que pose l’usurpation d’identité. Les technologies qui visent à reconnaître quelqu’un dans une foule comportent encore de nombreux biais et posent des problèmes de centralisation de bases de données, de potentielles dérives. Ce ne sont pas les mêmes usages ni les mêmes risques. Parce qu’elles peuvent avoir une portée liberticide et discriminatoire, elles méritent d’être régulées et contrôlées.

Les usages ordinaires, liés à l’authentification, ne sont donc pas inquiétants ?

Je ne dis pas cela. Seulement que les débats occultent nos usages ordinaires, sur lesquels peu d’alertes sont lancées. Le déverrouillage d’un iPhone par le Face ID, par exemple, est déjà largement diffusé. En postant nos photos sur les réseaux sociaux, nous banalisons nos données biométriques. Nous enrichissons les bases des géants américains et chinois, utilisées pour entraîner des algorithmes d’identification, donc des technologies dont la réglementation nous échappe.

Les débats mettent-ils en péril la maturité technologique des industriels français ?

Il y a des avancées. Les industriels intègrent de plus en plus les enjeux éthiques, en instaurant par exemple des chartes éthiques. Côté citoyens, il y a une prise de conscience du fait que ces technologies ne sont pas banales et qu’ils doivent réfléchir à leurs pratiques. Plus on aura de dialogue, plus on travaillera en ouverture et en transparence, plus chaque partie prenante progressera dans sa réflexion. Arrêter de faire avancer ces technologies, c’est prendre le risque que les acteurs européens disparaissent du marché et que, si elles s’imposent malgré tout, par des usages très ordinaires, elles soient portées par des acteurs qui échappent à toute régulation européenne.

La réglementation européenne est-elle la bonne ?

Le RGPD [règlement général sur la protection des données, ndlr] constitue un cadre pertinent et essentiel pour le citoyen. Mais sur certains volets, il ne permet pas aux industriels de progresser. En interdisant le traitement de données biométriques, il restreint l’entraînement des algorithmes et leur amélioration. Il limite aussi les expérimentations. Elles sont pourtant un moyen de faire progresser les technologies et, pour les utilisateurs, de les maîtriser et d’en cerner les limites. Le Royaume-Uni est l’un des seuls pays en Europe à utiliser la reconnaissance faciale en public, à partir de vraies bases de données. Cela paraît extrême. D’où l’enjeu de favoriser les expérimentations, dans un encadrement transparent et rigoureux.

Êtes-vous optimiste sur l’arrivée de ce cadre européen d’expérimentation ?

La crise actuelle, qui ravive le sujet de la souveraineté technologique, donne à l’Europe l’opportunité d’avancer. Mais il ne faut pas s’en tenir au seul cadre de l’expérimentation. Placer l’« auditabilité » des algorithmes au cœur de la standardisation est central. Aujourd’hui les industriels européens, pour valider leurs technologies, passent par un organisme de certification américain, le NIST [National institute of standards and technology, ndlr]. Or celui-ci n’intègre pas les enjeux éthiques. L’Europe doit développer ses standards, en y intégrant ses principes de droit.

Les industriels réfléchissent-ils à des garde-fous face à la portée liberticide de leurs technologies ?

Oui. Des technologies sont bridées quand elles sont vendues à certains pays afin de pallier le risque d’un usage détourné.

Difficile de croire que les industriels vont préférer l’éthique à la performance...

La meilleure régulation est celle du cadre réglementaire et de la standardisation des technologies. Mais les industriels ont conscience des enjeux éthiques. Par pragmatisme, parce qu’un usage liberticide de leurs technologies engagerait leur responsabilité. Mais aussi parce que leurs salariés, de plus en plus, veulent travailler dans des entreprises dans lesquelles ils se retrouvent du point de vue éthique. Ce sont des évolutions sociétales plus globales, longues, mais auxquelles je crois.

Newsletter La Quotidienne
Nos journalistes sélectionnent pour vous les articles essentiels de votre secteur.