Bandeau
mcInform@ctions
Travail de fourmi, effet papillon...
Descriptif du site
Observatoire de l’Internet de Stanford (traduction DeepL.com/Translator)
Lutte contre l’exploitation des enfants sur les médias sociaux fédérés
#Mastodon #reseauxsociaux #fediverse #pedocriminalite
Article mis en ligne le 26 février 2025

Un nouveau rapport constate qu’un paysage des médias sociaux de plus en plus décentralisé offre plus de choix aux utilisateurs, mais pose des problèmes techniques pour lutter contre l’exploitation des enfants et d’autres abus en ligne.

Pour la première fois depuis près de vingt ans, le paysage des médias sociaux connaît une évolution remarquable. Les réseaux sociaux décentralisés ont attiré l’attention et des millions de nouveaux utilisateurs en raison de l’insatisfaction croissante à l’égard des plus grandes entreprises de médias sociaux. Le Fediverse, un réseau social décentralisé composé d’espaces interconnectés gérés de manière indépendante avec des règles et des normes culturelles uniques, a connu un regain de popularité. Mastodon est l’un des projets décentralisés les plus connus, et même Meta’s Threads a annoncé un soutien futur à ActivityPub, le protocole technique qui alimente le Fediverse. La décentralisation présente de nombreux avantages potentiels pour les utilisateurs qui souhaitent avoir un plus grand choix et un meilleur contrôle sur leurs données et leurs préférences sociales, mais elle pose également des défis importants pour la confiance et la sécurité en ligne. Chaque instance d’un réseau de médias sociaux fédéré a sa propre politique de contenu, avec des administrateurs bénévoles qui modèrent généralement le contenu et appliquent les lignes directrices. Il existe peu de mesures techniques ou d’experts spécialisés pour établir des règles et gérer la modération du contenu dans le Fediverse en ce qui concerne les images de violence ou d’automutilation, la maltraitance des enfants, les discours haineux, la propagande terroriste ou la désinformation.

Dans un nouveau rapport, les chercheurs de l’Observatoire de l’Internet de Stanford examinent les problèmes liés à la lutte contre l’exploitation sexuelle des enfants sur les médias sociaux décentralisés, avec de nouvelles conclusions et recommandations pour répondre à la prévalence des problèmes de sécurité des enfants sur Fediverse. L’analyse effectuée sur une période de deux jours a révélé 112 correspondances avec du matériel connu d’abus sexuel d’enfants (CSAM), en plus de près de 2 000 messages utilisant les 20 hashtags les plus courants qui indiquent l’échange de matériel d’abus. Les chercheurs ont signalé les correspondances CSAM au National Center for Missing and Exploited Children (Centre national pour les enfants disparus et exploités). Le rapport constate que les problèmes de sécurité des enfants se posent sur les réseaux de médias sociaux décentralisés et nécessitent une réponse collective. Les outils actuels de lutte contre l’exploitation et les abus sexuels des enfants en ligne, tels que PhotoDNA et les mécanismes de détection des comptes abusifs ou des récidives, ont été développés pour des services gérés de manière centralisée et doivent être adaptés à l’architecture unique de Fediverse et d’autres projets de médias sociaux décentralisés similaires.