La réalité rattrape la science-fiction. Si le genre a longtemps mis en scène des machines autonomes capables de se retourner contre les humains, il semblerait que l’IA telle que nous la connaissons s’approche déjà d’un monstre difficile à contrôler. C’est en tout cas l’une des leçons des Facebook Files, une série de révélations qui touche le géant américain après la remise de documents internes aux autorités par une ancienne employée, Frances Haugen.
D’aprèsLe Monde, qui a pu avoir accès aux documents, les algorithmes développés par le réseau social pour gérer le classement des publications sont devenus incompréhensibles, voire incontrôlables par les salariés. « A de multiples reprises, des employés témoignent, dans des documents internes, de leur incompréhension face à des comportements problématiques de leur code informatique », écrit le journal. Il cite en exemple la mise en avant, non souhaitée et non expliquée par les ingénieurs de Facebook, de vidéos pornographiques soft dans l’onglet Watch en Inde. Ou encore la recommandation de groupes politiques qui ne devraient plus l’être aux Etats-Unis.
Une responsabilité juridique des réseaux sociaux?
Ces révélations rappellent la récente publication par Twitter d’une étude démontrant que ses algorithmes amplifient davantage les tweets des politiques et médias de droite, sans que ses ingénieurs ne comprennent pourquoi. Que les algorithmes reproduisent nos biais et manquent de transparence n’est pas un sujet nouveau. Mais il était pour l’instant restreint aux cercles d’experts et à une approche surtout technologique, avec des recherches informatiques sur l’IA explicable par exemple. Avec ces affaires, le problème apparaît plus politique et plus impactant que nous ne le pensions.
« A chaque fois que des data scientists et des ingénieurs en informatique mêlent personnalisation des contenus et amplification algorithmique – comme dans le fil d’actualité de Facebook, l’onglet Pour vous de TikTok ou les recommandations de YouTube – ils créent des monstres incontrôlables et pompeurs d’attention, écrivait en juin Roddy Lindsay, ex-ingénieur chez Facebook, dans une tribune publiée dans le New York Times. Ces algorithmes […] perpétuent des biais et affectent la société d’une manière que leurs créateurs comprennent à peine. » Pour ce data scientist, le problème n’est pas technique. « Facebook a eu quinze ans pour démontrer que les algorithmes de classement des contenus en fonction de l’engagement [le nombre de partages, de commentaires, …] peuvent être conçus de manière responsable ; s’ils n’ont pas réussi à le faire jusqu’à présent, ils n’y arriveront jamais », tranche-t-il.
La solution proposée par Frances Haugen, la lanceuse d’alerte à l’origine des Facebook Files, et à laquelle Roddy Lindsay adhère ? Pousser Facebook à arrêter d’utiliser ce type d’algorithmes en changeant la loi pour le rendre responsable pénalement des conséquences des décisions de ses outils. Un moyen radical, non pas pour essayer de contrôler le monstre, mais de le supprimer. Reste à voir si la proposition sera entendue aux Etats-Unis. Ou par l’Europe, qui entendait imposer aux réseaux sociaux la transparence sur leurs algorithmes de recommandation à travers le Digital services act (DSA). Transparence qu’ils ne sont visiblement pas en mesure d’apporter.



