Bandeau
mcInform@ctions
Travail de fourmi, effet papillon...
Descriptif du site
Amnesty International (traduction DeepL.com/Translator)
Myanmar : Les systèmes de Facebook ont favorisé la violence contre les Rohingyas ; Meta doit des réparations
#Rohingyas #Meta #AmnestyInternational #AvecToiMyanmar
Article mis en ligne le 11 janvier 2025

Myanmar : Les systèmes de Facebook ont favorisé la violence contre les Rohingyas ; Meta doit des réparations - nouveau rapport Les algorithmes dangereux et la recherche inconsidérée du profit de Meta, propriétaire de Facebook, ont largement contribué aux atrocités perpétrées par l’armée du Myanmar contre les Rohingyas en 2017, a déclaré Amnesty International dans un nouveau rapport publié aujourd’hui. The Social Atrocity : Meta and the right to remedy for the Rohingya, explique en détail comment Meta savait ou aurait dû savoir que les systèmes algorithmiques de Facebook favorisaient la diffusion de contenus anti-Rohingya préjudiciables au Myanmar, mais que l’entreprise n’a toujours pas agi.

"En 2017, les Rohingyas ont été tués, torturés, violés et déplacés par milliers dans le cadre de la campagne de nettoyage ethnique menée par les forces de sécurité du Myanmar. Dans les mois et les années qui ont précédé ces atrocités, les algorithmes de Facebook ont intensifié une tempête de haine contre les Rohingyas qui a contribué à une violence bien réelle", a déclaré Agnès Callamard, secrétaire générale d’Amnesty International.

Meta doit rendre des comptes. L’entreprise a maintenant la responsabilité de fournir des réparations à tous ceux qui ont subi les conséquences violentes de ses actions imprudentes. Agnès Callamard, secrétaire générale d’Amnesty International "Alors que l’armée du Myanmar commettait des crimes contre l’humanité à l’encontre des Rohingyas, Meta profitait de la chambre d’écho de la haine créée par ses algorithmes d’incitation à la haine. "Meta doit rendre des comptes.

Sawyeddollah, un réfugié rohingya de 21 ans, a déclaré à Amnesty International : " J’ai vu beaucoup de choses horribles sur Facebook. Et j’ai pensé que les personnes qui les avaient publiées étaient mauvaises... Puis j’ai réalisé que ce ne sont pas seulement ces personnes - les afficheurs - qui sont responsables, mais aussi Facebook. Les Rohingyas sont une minorité ethnique majoritairement musulmane basée dans le nord de l’État de Rakhine, au Myanmar. En août 2017, plus de 700 000 Rohingyas ont fui Rakhine lorsque les forces de sécurité du Myanmar ont lancé une campagne ciblée de meurtres, de viols et d’incendies de maisons généralisés et systématiques. Ces violences font suite à des décennies de discrimination, de persécution et d’oppression à l’égard des Rohingyas, soutenues par l’État, qui s’apparentent à de l’apartheid.

Une chambre d’écho anti-Rohingya Meta utilise des systèmes algorithmiques basés sur l’engagement pour alimenter le fil d’actualité, le classement, les recommandations et les fonctions de groupes de Facebook, façonnant ainsi ce qui est vu sur la plateforme. Meta tire profit du fait que les utilisateurs de Facebook restent le plus longtemps possible sur la plateforme, en vendant des publicités plus ciblées. L’affichage de contenus incendiaires - y compris ceux qui prônent la haine et constituent une incitation à la violence, à l’hostilité et à la discrimination - est un moyen efficace de maintenir les utilisateurs plus longtemps sur la plateforme. La promotion et l’amplification de ce type de contenu sont donc essentielles au modèle économique de Facebook, basé sur la surveillance.

Dans les mois et les années qui ont précédé la répression, Facebook au Myanmar était devenu une chambre d’écho de contenus anti-Rohingya. Des acteurs liés à l’armée du Myanmar et à des groupes nationalistes bouddhistes radicaux ont inondé la plateforme de contenus antimusulmans, diffusant des informations erronées sur l’imminence d’une prise de pouvoir par les musulmans et décrivant les Rohingyas comme des "envahisseurs". Dans un message partagé plus de 1 000 fois, un défenseur musulman des droits de l’homme a été photographié et décrit comme un "traître à la patrie". Les commentaires laissés sur l’article comprenaient des messages menaçants et racistes, notamment "C’est un musulman. Les musulmans sont des chiens et doivent être abattus", et "Ne le laissez pas en vie. Supprimez toute sa race. Le temps presse".

Les contenus incitant à la violence et à la discrimination ont été diffusés jusqu’au sommet de la hiérarchie militaire et civile du Myanmar. Le général Min Aung Hlaing, chef de l’armée du Myanmar, a publié un message sur sa page Facebook en 2017 : "Nous déclarons ouvertement qu’absolument, notre pays n’a pas de race Rohingya". En juillet 2022, la Cour internationale de justice (CIJ) s’est déclarée compétente pour engager une procédure contre le gouvernement du Myanmar au titre de la Convention pour la prévention et la répression du crime de génocide, en raison du traitement réservé aux Rohingyas par ce pays. Amnesty International se félicite de cette mesure essentielle visant à amener le gouvernement du Myanmar à rendre des comptes et continue de demander que les hauts responsables de l’armée du Myanmar soient traduits en justice pour le rôle qu’ils ont joué dans les crimes commis contre les Rohingyas.

En 2014, Meta a tenté de soutenir une initiative de lutte contre la haine menée par la société civile, connue sous le nom de "Panzagar" ou "flower speech", en publiant un ensemble d’autocollants que les utilisateurs de Facebook pouvaient apposer en réponse à des contenus prônant la violence ou la discrimination. Les autocollants portaient des messages tels que "Réfléchissez avant de partager" et "Ne soyez pas la cause de la violence". Cependant, les activistes ont rapidement remarqué que les autocollants avaient des conséquences inattendues. Les algorithmes de Facebook ont interprété l’utilisation de ces autocollants comme un signe que les gens appréciaient une publication et ont commencé à les promouvoir. Au lieu de réduire le nombre de personnes ayant vu un message prônant la haine, les autocollants ont en fait rendu les messages plus visibles.

La mission internationale indépendante d’établissement des faits des Nations unies sur le Myanmar a finalement conclu que le "rôle des médias sociaux [était] significatif" dans les atrocités commises dans un pays où "Facebook est l’Internet". Mohamed Showife, un militant rohingya, a déclaré : "Les Rohingyas rêvent de vivre comme les autres personnes dans ce monde, mais vous, Facebook, vous avez détruit notre rêve" : "Les Rohingyas rêvent simplement de vivre comme les autres peuples de ce monde... mais vous, Facebook, vous avez détruit notre rêve".

L’inaction de Facebook Le rapport explique en détail comment Meta a omis à plusieurs reprises de faire preuve de diligence raisonnable en matière de droits de l’homme dans le cadre de ses activités au Myanmar, malgré la responsabilité qui lui incombe en vertu des normes internationales. Des études internes datant de 2012 indiquaient que Meta savait que ses algorithmes pouvaient entraîner de graves préjudices dans le monde réel. En 2016, les propres recherches de Meta ont clairement reconnu que "nos systèmes de recommandation font croître le problème" de l’extrémisme. Meta a reçu des communications et des visites répétées de militants de la société civile locale entre 2012 et 2017, lorsque l’entreprise a été avertie qu’elle risquait de contribuer à l’extrême violence. En 2014, les autorités du Myanmar ont même bloqué temporairement Facebook en raison du rôle joué par la plateforme dans le déclenchement d’une flambée de violence ethnique à Mandalay. Cependant, Meta n’a pas tenu compte de ces avertissements et n’a pas non plus appliqué sa propre politique en matière de discours haineux. L’enquête d’Amnesty International comprend l’analyse de nouvelles preuves tirées des "Facebook Papers", une cache de documents internes divulgués par le lanceur d’alerte Frances Haugen.

Dans un document interne daté d’août 2019, un employé de Meta a écrit : "Nous avons des preuves provenant de diverses sources que les discours de haine, les discours politiques clivants et la désinformation sur Facebook [...] affectent les sociétés dans le monde entier. Nous avons également des preuves irréfutables que les mécanismes fondamentaux de notre produit, tels que la viralité, les recommandations et l’optimisation de l’engagement, expliquent en grande partie pourquoi ces types de discours prospèrent sur la plateforme."

Amnesty International lance aujourd’hui une nouvelle campagne appelant Meta Platforms, Inc. à répondre aux demandes de réparation des Rohingyas. Ce jour marque le premier anniversaire de l’assassinat du militant Mohib Ullah, président de la Société des Rohingyas de l’Arakan pour la paix et les droits humains, qui était à l’avant-garde des efforts déployés par la communauté pour demander des comptes. Les groupes de réfugiés rohingyas ont demandé directement à Meta de remédier à la situation en finançant un projet éducatif d’un million de dollars dans le camp de réfugiés de Cox’s Bazar, au Bangladesh. Cette demande de financement ne représente que 0,002 % des 46,7 milliards de dollars de bénéfices réalisés par Meta en 2021. En février 2021, Meta a rejeté la demande de la communauté rohingya en déclarant : "Facebook ne s’engage pas directement dans des activités philanthropiques" : "Showkutara, une jeune militante rohingya de 22 ans, a déclaré à Amnesty International : " Facebook doit payer. S’il ne le fait pas, nous irons devant tous les tribunaux du monde. Nous n’abandonnerons jamais notre combat". Il existe au moins trois plaintes actives visant à obtenir des mesures correctives pour les Rohingya de la part de Meta. Des poursuites civiles ont été engagées contre l’entreprise en décembre 2021 au Royaume-Uni et aux États-Unis. Des groupes de jeunes réfugiés rohingyas ont également déposé une plainte auprès de l’OCDE contre Meta, qui est actuellement examinée par le point de contact national de l’OCDE aux États-Unis.

"Meta a la responsabilité, en vertu des normes internationales en matière de droits de l’homme, de remédier aux terribles préjudices subis par les Rohingyas auxquels ils ont contribué. Les conclusions devraient tirer la sonnette d’alarme sur le fait que Meta risque de contribuer à d’autres violations graves des droits de l’homme, à moins qu’il n’apporte des changements fondamentaux à son modèle d’entreprise et à ses algorithmes", a déclaré Agnès Callamard.

"Des réformes urgentes et de grande envergure de leurs systèmes algorithmiques visant à prévenir les abus et à accroître la transparence sont absolument nécessaires pour garantir que l’histoire de Meta avec les Rohingyas ne se répète pas ailleurs dans le monde, en particulier là où la violence ethnique couve" "En fin de compte, les États doivent maintenant aider à protéger les droits de l’homme en introduisant et en appliquant une législation efficace pour freiner les modèles commerciaux basés sur la surveillance dans l’ensemble du secteur de la technologie. Les grandes entreprises technologiques se sont montrées incapables de le faire alors qu’elles ont d’énormes profits en jeu.

Le 20 mai 2022, Amnesty International a écrit à Meta au sujet des actions de l’entreprise concernant ses activités commerciales au Myanmar avant et pendant les atrocités de 2017. Meta a répondu qu’elle n’était pas en mesure de fournir des informations sur la période précédant 2017 car elle était " actuellement engagée dans une procédure de contentieux portant sur des questions connexes ". Le 14 juin 2022, Amnesty International a de nouveau écrit à Meta au sujet des allégations pertinentes contenues dans le rapport, et pour donner à l’entreprise la possibilité d’y répondre. Meta a refusé de commenter.

Demandez à Meta d’accorder des réparations à la communauté rohingya Une communauté de réfugiés s’attaque à un géant de la technologie de la Silicon Valley. Des groupes ethniques rohingyas demandent des réparations pour le rôle joué par Facebook dans les atrocités commises au Myanmar. Signez la pétition demandant à Meta de prendre ses responsabilités.