[L’instant tech] Une start-up française lance un outil d’IA pour corriger les biais sexistes des algorithmes

L’entrepreneure et anthropologue Daphné Marnat lance, lundi 8 mars, la start-up Unbias, qui propose une solution d’IA pour supprimer les biais sexistes dans les algorithmes de traitement du langage. Un outil susceptible d’intéresser toutes les entreprises utilisant des chatbots et logiciels de langage automatique.

Réservé aux abonnés
Alexa assistant vocal amazon
L'enceinte connectée Alexa, d'Amazon, a un prénom et une voix féminins. Alors qu'elle est toujours disponible pour répondre aux questions de son propriétaire, l'Unesco reproche à ses concepteurs d'entretenir les stéréotypes de genre.

Un data scientist et une anthropologue pour s’attaquer aux biais des algorithmes, le duo s'est parfaitement trouvé. Lundi 8 mars, date choisie pour coïncider avec la journée internationale du droit des femmes, l’entrepreneure Daphné Marnat a officiellement lancé sa start-up Unbias, qui propose un outil d’intelligence artificielle pour enlever les biais sexistes dans les algorithmes de traitement automatique du langage.

"Notre solution est née de l’alliance entre les compétences algorithmiques de mon associé [qui souhaite rester anonyme] et les miennes d’anthropologue, mobilisées pour voir où sont les biais sexistes dans la langue française", explique Daphné Marnat. Le résultat : un modèle d’apprentissage capable de détecter, dans les phrases générées par des algorithmes de traitement du langage, des biais sexistes et de les remplacer par des mots ou syntaxes moins discriminants.

Chatbots et traduction automatique

Parmi les exemples de correction, ne pas demander "qui est le chef de famille?", mais plutôt "qui prend les décisions dans le foyer?" ; ou indiquer qu’en cas d’enfant malade, ce sont "les parents" et non "la mère" qui peut prendre un congé. La solution se veut plug and play, c’est-à-dire facilement implémentable dans un agent conversationnel (chatbot) ou un logiciel de traduction automatique. "Quand on prend le train par exemple, la SNCF nous parle à travers un robot sur la messagerie WhatsApp, illustre Daphné Marnat. Notre solution vise à ce qu'un logiciel comme celui-ci utilise un langage qui ait le moins de biais possible."

L'intérêt est évident pour l'image de l'entreprise qui utilise le chatbot, souvent pour gérer ses relations clients. "Les grands groupes s’engagent de plus en plus sur le thème de l’inclusion via leur politique RSE [responsabilité sociale des entreprises] mais ils ont souvent du mal à trouver quelles actions déployer, observe Daphné Marat. C’est pourquoi nous avons créé un outil concret et facile d’utilisation, qui permette aux entreprises d’avoir un langage en accord avec leurs valeurs."

"Aider les humains à voir les biais qu’ils ne voient plus"

La start-up, incubée à Sophia Antipolis (Alpes-Maritimes), n’aurait pas pu naître sans le confinement, qui a donné du temps aux deux co-fondateurs. Tout juste lancés, ils imaginent déjà de futures applications. "D’autres fonctionnalités pourraient permettre à notre solution d’alerter sur les risques de perception discriminante, anticipe Daphné Marat. Au-delà de détecter les biais dans les algorithmes, elles pourraient aussi aider les humains à voir les biais qu’ils ne voient plus."

A l’image d’un correcteur orthographique qui souligne en bleu les mots qu’il identifie comme mal accordés, le logiciel pourrait signaler les tournures qu’ils trouve discriminantes. Une innovation dite nudge, c’est-à-dire qui change le comportement de son utilisateur par le design, verra peut-être le jour... si la version actuelle rencontre le succès.

Newsletter La Quotidienne
Nos journalistes sélectionnent pour vous les articles essentiels de votre secteur.