Chronique

[Science-friction] Face aux «agressions sexuelles», faut-il mettre la police dans le métavers ?

Plusieurs cas de comportements violents dans le métavers, vécus comme des agressions sexuelles, ont été rapportés ces derniers mois. Ils soulignent l’existence d’un vide juridique concernant nos "corps numériques" et questionnent les méthodes de modération, qui vont devoir s’adapter.

Réservé aux abonnés
Horizon Worlds
Afin de lutter contre les agressions dans son métavers Horizon Worlds, Meta (ex-Facebook) a créé en février une bulle de sécurité permettant d'imposer un mètre de distance entre son avatar et les autres.

« C'était surréaliste. C'était un cauchemar. » C’est avec ces mots que Nina Jane Patel a qualifié l’agression qu’elle a vécue lors d’un test de la bêta-version du métavers de Meta, Horizon Worlds. « Dans les 60 secondes qui ont suivi mon adhésion [à la plateforme], j'ai été harcelée verbalement et sexuellement, raconte-t-elle dans un post sur Medium. Trois à quatre avatars masculins, avec des voix masculines, ont fondamentalement, mais virtuellement, violé mon avatar et pris des photos. Alors que j'essayais de m'enfuir, ils ont crié "ne fais pas semblant de ne pas aimer ça" et "va te masturber devant la photo". »

Juridiquement parlant, ces faits ne peuvent être qualifiés ni de viol ni d’agression sexuelle, puisque les définitions de ces deux termes impliquent une matérialité – une pénétration dans le premier cas, un contact physique dans le second. Mais l’emploi de ce terme permet sans doute à Nina Jane Patel de communiquer la violence de son ressenti. Car l’objectif de la réalité virtuelle en 3D, sur laquelle s’appuie le métavers, est bien de brouiller la frontière entre les mondes virtuel et réel. « La réalité virtuelle a essentiellement été conçue pour que l'esprit et le corps ne puissent pas différencier les expériences virtuelles/numériques des réalités, rappelle Nina Jane Patel, qui a créé une société développant un métavers pour les enfants. Dans une certaine mesure, ma réponse physiologique et psychologique a été la même que si l’événement s’était produit dans la réalité. »

Le code, la première des réponses

Que faire dès lors pour lutter contre de tels comportements, alors que le témoignage de Nina Jane Patel n’est malheureusement pas unique ? Il semblerait qu'il existe un vide juridique pour qualifier les agressions que pourraient vivre nos corps numériques. Mais le métavers n’en étant qu’à ses débuts, il est trop tôt pour dire si une nouvelle loi, qui créerait une qualification telle que le « viol en ligne », est nécessaire.

La première des réponses se situe plutôt dans le code informatique, qui donne ses règles au métavers. C’est d’ailleurs ce qu’a fait Meta (ex-Facebook), en créant en février une bulle de sécurité qui impose un mètre de distance entre les avatars. Elle peut être activée pour tout le monde, seulement pour les "non-amis" (le mode par défaut), ou désactivée. Décider si le contact « physique » entre deux avatars déclenche ou non un retour haptique dans la manette de l’utilisateur est aussi une manière pour les plateformes d’agir. Avec la difficulté que mettre trop de protection peut réduire le caractère immersif de l’expérience.

Le défi de modérer en temps réel des interactions poussées

La modération est aussi une nécessité. Car même avec une bulle de sécurité, le harcèlement sexuel, qui renvoie à des propos ou comportements à connotation sexuelle répétés, peut être présent. Et les agressions peuvent aller si vite que les personnes concernées peuvent ne pas se défendre. C’était « une expérience horrible qui s'est produite si vite et avant même que je puisse penser à mettre en place la barrière de sécurité. J’ai gelé », racontait Nina Jane Patel. Des mots qui font penser à l’état de sidération, un mécanisme de défense neurobiologique qui met la personne dans un état apathique dans une situation d'extrême violence, comme un viol.

Plus récemment, une chercheuse travaillant pour l'organisation à but non lucratif SumOfUs a aussi alerté sur ce qu'elle a ressenti comme un viol sur Horizon Worlds. Elle non plus n’avait pas activé sa bulle de protection, à la demande d’autres utilisateurs, et s’est laissée entraîner dans une pièce privée. « Tout s'est passé si vite que j'ai eu l'impression d'être dissociée. Une partie de mon cerveau était en mode "c'est quoi ce bordel?", l'autre se disait que ce n'était pas mon vrai corps, et une encore se disait "c'est important pour la recherche" », raconte-elle dans le rapport ensuite publié par son ONG sur le métavers et ses dérives.

Face à de tels épisodes, la modération va se compliquer. S’il s’agit aujourd’hui d’analyser du contenu publié pour éventuellement le retirer, comment modérer la simulation d’un viol par un avatar en temps réel ? Pour arbitrer, il faudra que des humains ou des algorithmes d’intelligence artificielle analysent les gestes. Tentent de comprendre les insultes, qui peuvent être prononcées dans bien des langues. Et ce le plus rapidement possible afin de pouvoir intervenir à temps, et couper un micro ou exclure d’une salle. On se demande finalement si la police ne va pas finir par patrouiller dans le métavers. Si l’idée peut faire sourire, elle est bien sérieuse. En 2017, une affaire de viol virtuel dans le jeu en 3D Second Life avait déjà poussé la police belge à s’y inviter.

Newsletter La Quotidienne
Nos journalistes sélectionnent pour vous les articles essentiels de votre secteur.
Les webinars
Les services L'Usine Nouvelle
Détectez vos opportunités d’affaires
44 - La Baule-Escoublac
Date de réponse 11/05/2026
Trouvez des produits et des fournisseurs