Bandeau
mcInform@ctions
Travail de fourmi, effet papillon...
Descriptif du site
Mediapart
En prévision des JO, la SNCF a testé plus d’une dizaine d’algorithmes de vidéosurveillance
#JO2024 #surveillance #technopolice #SNCF #CNIL
Article mis en ligne le 28 décembre 2023
dernière modification le 26 décembre 2023

Suivi de personnes, maraudage, détection d’intrusion… Depuis 2017, la SNCF a expérimenté plusieurs outils de surveillance des géants français Thales et Atos, mais aussi des sociétés étrangères Briefcam et Anyvision. Ces outils, proches de la reconnaissance faciale, pourraient être expérimentés par la SNCF durant les Jeux olympiques. Malgré des tests aux résultats contrastés.

Lors des Jeux olympiques qui se tiendront en août prochain à Paris, en plus du regard de ces yeux numériques, les citoyen·nes fréquentant les halls des gares pourront être soumis·es à des algorithmes de vidéosurveillance. La loi « Jeux olympiques » du 19 mai 2023 a fixé un cadre à l’expérimentation de ces logiciels jusque-là illégaux. Jusqu’en mars 2025, lors d’événements sportifs et culturels – dont les JO –, la police, la gendarmerie, mais aussi les services de sécurité de la SNCF peuvent coupler ces IA aux caméras pour identifier la présence d’objets abandonnés, un mouvement de foule ou le port d’une arme.

Des systèmes que le groupe ferroviaire connaît bien. Selon des documents obtenus par Mediapart, il a déjà testé entre 2017 et 2021, avec l’accord de la Commission nationale de l’informatique et des libertés (Cnil), 19 logiciels de vidéosurveillance algorithmique en conditions réelles sur les citoyen·nes fréquentant ses gares. Des projets menés avec les plus grandes multinationales du secteur (...)

Initialement, selon des documents consultés par Mediapart, la SNCF a même voulu, pour identifier les comportements, tester une technologie illégale, la reconnaissance faciale. Mais elle n’a pas obtenu de dérogation de la Cnil, qui a rappelé le côté intrusif de cette technologie biométrique. Désireuse de mener son projet à bien, la SNCF s’est donc tournée vers le logiciel de vidéosurveillance algorithmique d’Anyvision, car il n’examine pas, selon elle, une donnée biométrique – le visage d’un individu – mais d’autres caractéristiques non biométriques comme la démarche ou la tenue vestimentaire. (...)

L’utilisation de ce type de logiciel dans l’espace public n’étant encadrée par aucune législation à cette époque, la SNCF a demandé début 2019 une autre autorisation à la Cnil, qui la lui a cette fois-ci accordée. Par le passé, la SNCF avait déjà testé deux autres algorithmes du même type, ceux de la start-up française XXII et de l’entreprise japonaise Fujitsu. Plusieurs gares ont été concernées par au moins une de ces expérimentations, notamment la gare du Nord, la gare de l’Est, la gare Saint-Lazare, la gare de Lyon-Part-Dieu ou celle de Marseille-Saint-Charles.

Concernant le recours à des algorithmes de surveillance durant les Jeux olympiques, la SNCF reste tout aussi évasive (...)

Selon des documents obtenus par Mediapart, une expérimentation a été « particulièrement emblématique » par son ampleur. Durant plusieurs mois en 2020, la SNCF a passé certains voyageurs à la moulinette d’un logiciel un peu particulier, développé par la firme israélienne Anyvision – renommée en 2021 Oosto. Associés aux caméras, ses algorithmes sont capables de suivre en temps réel une personne sur l’ensemble du réseau, selon différentes caractéristiques. (...)

Lors du passage de la loi Jeux olympiques devant le Parlement, des eurodéputés s’alarmaient de voir ces systèmes de vidéosurveillance intelligente « créer un précédent de surveillance jamais vu en Europe ». Au contraire, la SNCF ambitionne depuis plusieurs années « de se positionner comme un acteur majeur et incontournable des technologies liées à la vidéo », comme elle l’écrit sur son site internet.

Cette obsession pour les systèmes de vidéo-intelligence inquiète Katia Roux, chargée de plaidoyer au sein de l’ONG Amnesty International. (...)

Le nom du partenaire choisi interroge également. La société Anyvision est connue pour ses liens avec le monde militaire israélien. (...)

Un logiciel à l’usage flou, dont les algorithmes, couplés à des caméras de videosurveillance, pourraient détecter des citoyens et citoyennes adoptant des « comportements dangereux » dans les gares. Interrogé sur la nature de ces comportements, Thales refuse d’entrer dans le détail, par souci de confidentialité. (...)

« Ces outils dont le rôle et l’usage sont définis par des termes flous sont particulièrement dangereux », réagit Noémie Levain, juriste au sein de l’association de défense des libertés numériques La Quadrature du Net. Cela signifie que la SNCF délègue la définition d’un comportement anormal d’un citoyen en gare à un algorithme, qui plus est développé par des sociétés pour la plupart issues de l’industrie militaire, dont la définition de la sécurité est nécessairement subjective, politique et repose sur la base d’une vision répressive et discriminante. »

Depuis 2021, les tests semblent s’être estompés (...)

« Il y a des questionnements légitimes sur la maturité de ces technologies : est-ce que les policiers ou opérateurs de terrain ont conscience de leur efficacité relative ? Si un policier ne l’est pas et considère que l’IA est infaillible, il peut estimer qu’une zone où il n’y a aucune détection de port d’armes est sécurisée, alors que ce n’est pas forcément le cas, compte tenu des erreurs des logiciels. En l’absence de démarche scientifique d’évaluation de l’impact de ces technologies, il est hasardeux de se positionner sur leur efficacité », détaille le chercheur Guillaume Gormand, auteur d’une enquête sur la vidéosurveillance.

Les coauteurs de cette mission d’information, les députés Philippe Gosselin et Philippe Latombe, notent également l’efficacité fluctuante de certaines technologies. (...)