[Science-friction] Contrôler les contenus des réseaux sociaux, une fausse piste pour réguler

Les réseaux sociaux se révèlent un danger pour la démocratie. Mais pour les réguler, la solution n’est pas dans le contrôle accru des contenus, expliquent Jean-Louis Missika et Henri Verdier dans « Le business de la haine ».

Réservé aux abonnés
TikTok
Dans leur dernier livre, le sociologue Jean-Louis Missika et le normalien Henri Verdier appellent à la transparence des algorithmes utilisés par les grandes plateformes.

Radicalisation terroriste, attaque du Capitole, polarisation de la société, violence interpersonnelle, déchaînement de haine, élections manipulées…  Les réseaux sociaux se révèlent, non plus l’instrument de la liberté d’expression, mais un danger pour nos démocraties, expliquent le sociologue Jean-Louis Missika et le normalien Henri Verdier, dans « Le business de la haine », paru en février aux éditions Calmann Levy. Réguler les Facebook, Twitter, Tik Tok et autres Instagram devient urgent. Non pas en contrôlant les contenus, que même les plus importants réseaux comme Facebook n’arrivent pas à réaliser efficacement. Mais en les obligeant à la transparence sur les algorithmes utilisés.

La création d'une addiction

Les entreprises qui gèrent ces réseaux se développent sur une économie de l’attention, qui se base sur la recherche d’une captation complète de la vie des usagers, pour des raisons qui vont bien au-delà du seul placement de messages publicitaires. Une dizaine de contacts quotidiens ont en effet désormais beaucoup plus de valeur économique que cinq heures par jour devant la télévision. Ils permettent de suivre les trajectoires de l’usager, de lui proposer des services qui lui deviennent indispensables, créant ainsi une véritable addiction. « Une industrie entière s’est développée dans un seul but, hacker notre cerveau », écrivent Henri Verdier et Jean-Louis Missika. Comment ? Grâce à des algorithmes qui personnalisent les contenus, les publicités, les propositions de relations mais aussi en sélectionnant les paroles les plus violentes et les images les plus choquantes, qui vont retenir l’attention et provoquer l'engagement et les « j’aime », les partages de contenus, les commentaires, les apostrophes…

Problème, cette sélection enferme les usagers dans des « bulles de filtres », qui finissent par ne leur présenter qu’un seul point de vue, en phase avec leur représentation du monde. Il les enferme dans « des micro-mondes, parfois à la limite de la secte, qui peuvent partir à la dérive et couper du reste de l’opinion ». Or nous ne sentons pas cette « camisole algorithmique ». Pour en sortir, il faudrait exiger des entreprises qui gèrent ces plateformes la transparence sur les instructions données aux algorithmes et la transparence statistique sur les effets des algorithmes, comme on exige de l’industrie agroalimentaire la transparence sur les ingrédients entrant dans leurs produits. Ce serait un moyen de nous donner une « liberté de choix des algorithmes qu’on utilise ». Ou du moins, de disposer de toute l’information sur les effets de cette drogue que sont devenus les réseaux sociaux.

Newsletter La Quotidienne
Nos journalistes sélectionnent pour vous les articles essentiels de votre secteur.
Les webinars
Les services L'Usine Nouvelle
Détectez vos opportunités d’affaires
28 - 3F CENTRE VAL DE LOIRE
Date de réponse 11/05/2026
Trouvez des produits et des fournisseurs