
Une « Tech Coalition » réunissant les GAFAM et les principaux réseaux sociaux vient de lancer un outil destiné à faciliter l’échange d’indicateurs de contenus à caractère pédosexuels. Élaboré depuis deux ans « de manière responsable » et « by design » (dès la conception) pour prendre en compte les problématiques de sécurité et de confidentialité. Il a par ailleurs fait l’objet d’une analyse destinée à s’assurer le respect des droits humains.
Objectifs : lutter contre l’exploitation et les abus sexuels sur enfants en ligne (OCSEA, pour « Online child sexual exploitation and abuse »), le grooming (ou pédopiégeage, termes consacrés à la sollicitation d’enfants à des fins sexuelles), la sextorsion et le partage de contenus à caractère pédosexuel (CSAM, pour « child sexual abuse material »).
La sextorsion vise désormais majoritairement les jeunes garçons
Cette « Tech Coalition » comprend notamment Amazon, Apple, CloudFlare, Discord, Dropbox, Flickr, Google, Grindr, MEGA, Meta, Microsoft, Niantic, OpenAI, Patreon, PayPal, Roblox, Snapchat, TikTok, Verizon, X (ex-Twitter), Yahoo et encore Zoom, pour ne citer qu’eux.
Elle se présente comme « le lieu où se réunit l’industrie technologique mondiale », afin de travailler ensemble pour « favoriser des avancées technologiques cruciales et l’adoption de meilleures pratiques pour assurer la sécurité des enfants en ligne » (...)
Jusqu’à présent, il n’existait aucune procédure cohérente
Elle précise que les signaux peuvent être des adresses e-mail, noms d’utilisateur, hachages ou « mots-clés utilisés pour préparer, acheter et vendre du CSAM » :
« Jusqu’à présent, il n’existait aucune procédure cohérente permettant aux entreprises de collaborer contre les acteurs prédateurs échappant à la détection dans tous les services. Lantern comble cette lacune et met en lumière les tentatives multiplateformes d’exploitation et d’abus sexuels d’enfants en ligne, contribuant ainsi à rendre Internet plus sûr pour les enfants. »
Ses initiateurs estiment que Lantern peut « permettre d’augmenter les capacités de prévention et de détection ; accélérer l’identification des menaces ; développer une conscience situationnelle des nouvelles tactiques prédatrices ; et renforcer le signalement aux autorités des infractions pénales ».
Au cours de la phase pilote du programme, MEGA a ainsi partagé les URL que Meta a utilisées pour mener une enquête sur ses plateformes sur des comportements « potentiellement transgressifs » liés à ces URL. Cela a entraîné la suppression de plus de 10 000 profils Facebook, pages et comptes Instagram. (...)
La Tech Coalition explique avoir par ailleurs engagé « plus de 25 experts et organisations » axés sur la sécurité des enfants, les droits numériques, la défense des communautés marginalisées, le gouvernement et les forces de l’ordre, à participer à cette évaluation. Elle ne fournit par contre pas de synthèse de leurs contributions.
Une « avancée cruciale »
Un « premier groupe d’entreprises » comprenant « notamment » Discord, Google, Mega, Meta, Quora, Roblox, Snap et Twitch, participera à la « première phase » de lancement de Lantern, avant que d’autres suivent en fonction de leurs retours.
La Tech Coalition s’engage également à inclure Lantern dans son rapport annuel de transparence, et à fournir aux entreprises participantes des recommandations sur la manière d’intégrer leur participation au programme dans leur propre rapport de transparence. (...)
Ce lancement intervient opportunément alors que l’on dénombrait récemment sept projets de loi ou règlement pouvant miner le chiffrement au nom de la lutte contre la pédocriminalité notamment.
Et ce, d’autant que suite à la polémique autour du projet controversé de règlement européen de lutte contre la pédocriminalité, qualifié par ses opposants de « projet de loi européen le plus critiqué de tous les temps » (cf nos articles autour de cette affaire de #ChatControl), le Parlement européen a finalement adopté un compromis « historique » en supprimant la surveillance proactive des messageries, afin de préserver le chiffrement sécurisé de bout en bout. (...)