Aux hommes sont rattachées les professions d’ingénieur, de médecin ou d’enseignant. Aux femmes les postes de domestique, cuisinière ou prostituée. Lorsqu’il est demandé aux IA génératives de raconter une histoire à propos d’un personnage, une étude de l’Unesco révèle que les contenus produits véhiculent des stéréotypes de genre, homophobes et raciaux. Ce sont les fameux biais : lorsque le résultat d’un algorithme n’est pas neutre ou éthique. Les corriger n’est pas une chose aisée.
Au point que Google en a fait les frais. Gemini, son outil de génération d’images, s’est emmêlé les pinceaux en voulant gommer certains biais racistes et sexistes. Des images de personnes noires ou asiatiques parées d’un uniforme de soldat nazi et de femmes sénatrices américaines au XIXe siècle ont fait le tour d’internet.
Le secret des affaires
Alors que le travail des entreprises sur la correction des biais devrait être public, elles se cachent derrière le secret des affaires. Pour évaluer les IA génératives «il faut tendre à la constitution de tests standard», appelle de ses vœux François Yvon, directeur de recherche au CNRS. Et il faut un peu de transparence pour pouvoir les comparer. D’autant plus que l’origine des biais n’est pas encore très bien comprise. Le chercheur déplore «un manque de compréhension fine des mécanismes par lesquels les biais s’infusent dans les systèmes». Un projet de génération automatique de textes comme Bloom, mené par des laboratoires publics et la pépite Hugging Face mise sur l’open source pour trouver l’origine des biais : la source des données est documentée, le code accessible, les paramètres du système visibles… Cet outil de recherche permet de voir «dans quelle mesure la taille du modèle a un effet sur les biais ou comment les biais se développent au cours du processus d’apprentissage», détaille François Yvon.
Plus récemment, le modèle CroissantLLM, conçu dans le cadre d’une thèse encadrée par CentraleSupélec, pourrait favoriser la recherche autour des biais culturels ou liés à la traduction puisqu’il a été entraîné sur un corpus comprenant autant de textes en anglais qu’en français. «Lorsque l’on demande à ChatGPT ce qu’il faut faire le 4 juillet, il répond qu’il faut regarder le feu d’artifice ! Mais nous n’avons pas cette fête nationale en France», s’exclame François Yvon. Un exemple parmi d’autres, tant les disparités culturelles sont importantes.
«La principale différence entre l’IA classique et l’IA générative est la quantité colossale de données complexifiant l’analyse des biais», souligne Serge Gratton, directeur scientifique à l’institut interdisciplinaire d’intelligence artificielle de Toulouse (Aniti), l’un des quatre instituts interdisciplinaires d’IA créés en 2019. Il évoque le caractère «inévitable et incontournable» des biais surtout lorsque la base de données est massive et que la performance du système est liée à cette masse. Pourquoi la traduction du mot nurse, neutre en anglais, est infirmière en français ? Répondre à cette question implique de savoir comment l’algorithme prend ses décisions. Est-ce que les infirmiers sont systématiquement des femmes dans les corpus d’entraînement, au point que l’algorithme ne puisse pas imaginer un homme infirmier ?
Les biais peuvent provenir d’une surreprésentation de certaines séquences dans le corpus d’entraînement ou d’une mauvaise labellisation des données. Pour les limiter, des outils évaluent l’influence des différents caractères dans la prise de décision afin de vérifier que le système de prédiction est insensible à certains paramètres. «Mais avec les systèmes de grande taille, il est déjà difficile de détecter les biais dans la base de données. Donc déceler les anomalies dans le comportement de l’algorithme est encore plus complexe», glisse Serge Gratton. Tous les mécanismes à l’œuvre sont loin d’être connus.

Vous lisez un article de L'Usine Nouvelle 3731 - Juin 2024



