La vidéosurveillance algorithmique s’invite aux JO

Si la reconnaissance faciale reste interdite, des algorithmes pourront scruter des vidéos pour détecter des événements prédéterminés lors de la coupe du monde de rugby 2023 et des jeux Olympiques et Paralympiques de 2024.

Réservé aux abonnés
Image d'illustration de l'article
A Moscou, les technologies de reconnaissance faciale servent aujourd'hui également à traquer des opposants politiques.

Mouvement de foule, bagage abandonné, personne armée... La vidéosurveillance algorithmique, la VSA, est en passe d’être autorisée en France jusqu’au 31 décembre 2024 pour assurer la sécurité de manifestations sportives, récréatives ou culturelles de grande ampleur. À la charge des préfets de prendre des arrêtés pour autoriser ces expérimentations. La Coupe du monde de rugby, qui débute en septembre, sera certainement le premier événement sportif permettant de tester ces dispositifs en vue des jeux Olympiques et Paralympiques.

Avec la VSA, les images – captées par des caméras fixes ou accrochées à des drones – sont traitées par un algorithme programmé pour alerter les agents lorsqu’il détecte un événement à risque prédéterminé. Les personnes habilitées visualisent la vidéo et fixent la démarche à suivre. Sujets à une inquiétude particulière, la reconnaissance faciale et tous les traitements biométriques sont explicitement interdits par le texte de loi. Mais pour rechercher un individu précis, il est possible de se fonder sur des attributs comme les couleurs et la corpulence. Agnès Canayer, rapporteure LR du texte pour le Sénat, parle d’une « aide à la décision par l’intelligence artificielle », le choix final d’agir ou non étant pris par un humain. Un argument répété par les acteurs favorables à ces outils.

Comment limiter les biais ?

Selon ses défenseurs, la VSA permettra aussi de limiter le nombre de personnes affectées au visionnage des vidéos, une tâche éreintante et presque impossible, qui exige de scruter des heures durant un flux continu d’images pour repérer un événement. Cela amoindrit également le sentiment de culpabilité si un fait n’est pas détecté. Mais de quelle situation s’agit-il exactement ? « Chaque éditeur de solutions a un ensemble d’événements pré-intégrés, qui peut être modulé selon les besoins », détaille Yassir Karroute, le PDG de Neuroo, qui développe cette technologie. Cela peut être la détection d’intrusion, d’armes lourdes, de bagages abandonnés, de départ de feu, de mouvement de foule... La start-up promet une solution en temps réel, fonctionnant uniquement sur la mémoire vive, pour que les données ne laissent aucune trace. Un avantage qu’elle met en avant pour décrocher des contrats, et qui a déjà séduit une dizaine de villes en France.

La question des biais – le fait qu’un algorithme reproduise des discriminations – demeure néanmoins épineuse. Pour les limiter, Neuroo explique étiqueter elle-même les données utilisées pour entraîner son algorithme et se concentrer sur certains cas d’usages. La start-up ne détecte pas les agressions et se concentre sur les chutes ou les mouvements de panique. De son côté, la sénatrice Agnès Canayer assure que les éventuels biais sont contrebalancés par le fait que « l’humain peut reprendre la main à tout moment pour les corriger ». Diligentée pour accompagner les entreprises sélectionnées et encadrer les expérimentations en contrôlant par exemple les bases de données entraînant les algorithmes, la Cnil aura-t-elle la capacité d’agir ? Ce travail fastidieux touche au cœur même du savoir-faire des entreprises.

Surveillance ou espionnage ?

Pour Winston Maxwell, directeur d’études en droit et numérique à Télécom Paris, ce texte de loi va dans la bonne direction en tentant « de construire un cadre responsable ». Lequel pourrait devenir permanent à l’issue de l’expérimentation, tout en conservant l’essence même du texte : le caractère ponctuel des dispositifs de VSA. « L’une des craintes est que la technologie soit détournée pour espionner des individus dans les espaces publics », ajoute le professeur. Le débat sur la banalisation de ces technologies doit donc être ouvert. « L’effet cliquet » est ainsi régulièrement évoqué.

À force d’expérimenter et de banaliser, ces technologies se généralisent progressivement : aujourd’hui pour la Coupe du monde de rugby, demain pour les JO 2024, et à l’avenir, pour les festivals et événements culturels. Un phénomène de banalisation qu’accentue l’émergence de villes dites intelligentes, au sein desquelles de nombreux capteurs sont déployés. Si chaque projet est justifié individuellement, pour réduire la pollution ou renforcer la sécurité, leur accumulation peut les transformer en un outil de surveillance permanente. L’analyse de leur impact nécessite donc de mesurer les effets cumulatifs à long terme sur les libertés individuelles. L’exemple de la Russie, devenue vitrine des outils de reconnaissance faciale lors du Mondial de football 2018 à Moscou, est éloquent. Jugeant l’expérience réussie, la capitale a largement généralisé ces technologies. Après avoir traqué les personnes bravant les restrictions sanitaires liées au Covid-19, les milliers de caméras sont aujourd’hui utilisées pour appréhender les opposants politiques. Preuve, s’il en fallait, que ces technologies peuvent rapidement être employées à d’autres fins.

Nice, ville pionnière de la VSA

Plus de 4 000 caméras scrutent les rues niçoises. Derrière, une centaine d’agents vérifie les alertes soulevées par les algorithmes analysant les vidéos. L’un des premiers cas d’usage concerne la détection des dépôts sauvages et fonctionne « plutôt bien », selon Véronique Borré, directrice générale adjointe chargée de la proximité, de la solidarité et des sécurités. Une vingtaine de verbalisations a été dressée à l’encontre de personnes véhiculées effectuant ces dépôts – grâce à la lecture de leur plaque d’immatriculation – et certains sites ont été endigués. Un autre dispositif consiste à repérer les véhicules stationnés sur une piste cyclable. « Ce n’est pas seulement pour la lutte contre la délinquance et la criminalité », souffle Véronique Borré, qui souhaite aller plus loin dans l’utilisation de ces technologies. Lors du Carnaval de 2019, la ville a d’ailleurs mené une expérimentation plus poussée et décriée. Quelque 5 000 personnes ont été scrutées par un logiciel de la société israélienne AnyVision afin de retrouver des individus précis. « Le logiciel est même parvenu à différencier des jumeaux », admire la directrice générale adjointe. Qui regrette que la loi sur les JO n’ait pas autorisé plus largement ce type de tests.

 

3718
3718 3718

Vous lisez un article de L'Usine Nouvelle 3718 - Mai 2023

Lire le sommaire

       

Newsletter La Quotidienne
Nos journalistes sélectionnent pour vous les articles essentiels de votre secteur.
Les webinars
Les services L'Usine Nouvelle
Détectez vos opportunités d’affaires
28 - 3F CENTRE VAL DE LOIRE
Date de réponse 11/05/2026
Trouvez des produits et des fournisseurs