Meta était au courant que Facebook amplifiait la propagation de contenus contre la minorité Rohingya. © Tamara-Jade Kaz
Meta était au courant que Facebook amplifiait la propagation de contenus contre la minorité Rohingya. © Tamara-Jade Kaz

Myanmar Meta est responsable de la violence contre les Rohingyas propagée par Facebook

Communiqué de presse publié le 29 septembre 2022, Londres - Berne. Contact du service de presse
Les dangereux algorithmes de Meta, qui détient Facebook, ainsi que la recherche effrénée du profit ont considérablement contribué aux atrocités perpétrées par l’armée du Myanmar contre le peuple rohingya en 2017, souligne Amnesty International dans un nouveau rapport.

Ce rapport, intitulé L’atrocité des réseaux sociaux : Meta face au droit à réparation des Rohingyas, montre que Meta savait ou aurait dû savoir que les systèmes d'algorithmes de Facebook amplifiaient la propagation de contenus nocifs anti-Rohingyas au Myanmar, mais cette entreprise s’est abstenue d’agir.

«En 2017, des Rohingyas ont par milliers été tués, torturés, violés et déplacés dans le cadre de la campagne de nettoyage ethnique menée par les forces de sécurité du Myanmar. Dans les mois et les années ayant précédé ces atrocités, les algorithmes de Facebook ont intensifié la vague de haine contre les Rohingyas, contribuant ainsi à la survenue de violences dans la vraie vie», a déclaré Agnès Callamard, secrétaire générale d’Amnesty International. Pendant que l’armée du Myanmar commettait des crimes contre l’humanité contre les Rohingyas, Meta tirait profit de cette caisse de résonance créée par ses algorithmes qui a induit une hausse vertigineuse du sentiment de haine.

«Meta doit rendre des comptes. Cette entreprise a à présent la responsabilité d’apporter réparation à toutes les personnes qui ont souffert des violences provoquées par ses agissements irresponsables.»

Les Rohingyas sont une minorité ethnique principalement de confession musulmane qui vit dans l’État d'Arakan, dans le nord du Myanmar. En août 2017, plus de 700 000 Rohingyas ont fui l’État d'Arakan quand les forces de sécurité du Myanmar ont lancé une campagne ciblée d’homicides, de viols et de destruction par le feu des habitations généralisés et systématiques. Ce déchaînement de violence s’est produit à la suite de décennies de discrimination, de persécution et d’oppression des Rohingyas cautionnées par l'État et constituant un apartheid.

Une caisse de résonance pour la haine à l’égard des Rohingyas

Meta utilise des systèmes d'algorithmes basés sur l’engagement pour les flux d’actualités, le positionnement, les recommandations et les fonctionnalités de groupes sur Facebook, façonnant ainsi ce qui est vu sur cette plateforme. Meta a tout intérêt à ce que les utilisateurs et utilisatrices de Facebook restent le plus longtemps possible sur la plateforme, car cela lui permet de vendre d’autant plus de publicité ciblée. La diffusion de contenus incendiaires –notamment de contenus qui incitent à la haine ou constituent une incitation à la violence, à l’hostilité et à la discrimination– représente un moyen très efficace de retenir les gens le plus longtemps possible sur la plateforme. La promotion et l’amplification de ce type de contenu sont essentielles pour le modèle économique de Facebook qui est basé sur la surveillance.

«Meta porte la responsabilité d’apporter réparation à toutes les personnes qui ont souffert des violences provoquées par ses agissements irresponsables.»
Agnès Callamard, secrétaire générale d’Amnesty International

Dans les mois et les années qui ont précédé la répression, Facebook était devenu au Myanmar une caisse de résonance pour les contenus anti-Rohingyas. Des éléments liés à l’armée du Myanmar et à des organisations bouddhistes nationalistes radicales ont inondé la plateforme de contenus anti-musulmans, publiant de la désinformation affirmant qu’une prise de pouvoir des musulmans était imminente et qualifiant les Rohingyas d’«envahisseurs».

Dans un billet qui a été partagé plus d’un millier de fois, un défenseur des droits humains musulman a été présenté et décrit comme étant un «traître à la nation». Les commentaires qu’a suscités ce billet comprenaient des menaces et des messages racistes, notamment : «Il est musulman. Les musulmans sont des chiens qui doivent être abattus», et «Ne le laissez pas vivre. Éliminez totalement sa race. Le temps presse.»

Des contenus incitant à la violence et à la discrimination ont aussi été publiés par les plus hauts représentants de l’armée et des autorités civiles du Myanmar. Le général Min Aung Hlaing, commandant en chef de l’armée du Myanmar, a posté sur sa page Facebook en 2017 : «Nous déclarons ouvertement qu’absolument, notre pays n’a pas de race rohingya.» Il s’est par la suite emparé du pouvoir avec le coup d’État de février 2021.

En juillet 2022, la Cour internationale de justice (CIJ) a déterminé qu’elle était compétente pour instruire une affaire à l’encontre du gouvernement du Myanmar au titre de la Convention sur le génocide compte tenu du traitement des Rohingyas par le Myanmar. Amnesty International salue cette avancée capitale qui constitue un pas de plus pour amener le gouvernement du Myanmar à rendre des comptes et continue d’appeler à ce que les hauts responsables de l’armée du Myanmar soient traduits en justice pour leur rôle dans les crimes infligés aux Rohingyas.

En 2014, Meta a tenté de soutenir une initiative contre la haine baptisée Panzagar («Dites-le avec des fleurs») en créant des stickers que les utilisateurs et utilisatrices pouvaient utiliser pour répondre à des contenus incitant à la violence ou à la discrimination. Ces stickers arboraient des messages tels que «Réfléchissez avant de partager» et «Ne provoquez pas la violence».

Cependant, des militant·e·s ont rapidement remarqué que ces stickers avaient des conséquences inattendues. Les algorithmes de Facebook ont interprété l’utilisation de ces stickers comme signifiant que les gens appréciaient les billets en question et commençaient à les promouvoir. Au lieu de réduire le nombre de personnes regardant des billets incitant à la haine, ces stickers ont en fait rendu ces billets beaucoup plus visibles.

La Mission internationale indépendante d’établissement des faits sur le Myanmar [ONU] est parvenue à la conclusion que les médias sociaux ont joué un rôle considérable concernant la commission d’atrocités dans un pays où «Facebook est l’Internet».

Le rapport d’Amnesty International montre de façon détaillée que l’entreprise Meta s’est de façon répétée abstenue d’exercer la diligence requise en matière de droits humains pour ses opérations au Myanmar alors même qu’elle était tenue de le faire au titre des normes internationales.

Des études internes datant de 2012 indiquent pourtant que Meta savait que ses algorithmes pouvaient engendrer de graves dommages dans le monde réel. En 2016, les propres recherches de Meta l’ont amenée à reconnaître clairement que «[ses] systèmes de recommandation ont accru le problème» de l’extrémisme.

Meta a reçu de nombreuses communications et visites de militant·e·s locaux de la société civile entre 2012 et 2017, époque à laquelle l’entreprise a été avertie du fait qu’elle risquait de contribuer à une violence extrême. En 2014, les autorités du Myanmar ont même bloqué Facebook de façon provisoire parce que la plateforme avait joué un rôle dans le déclenchement d’une vague de violence ethnique à Mandalay. Meta n’a toutefois pas tenu compte de ces avertissements et elle s’est aussi systématiquement abstenue d’appliquer sa propre politique concernant les discours de haine.

L’enquête menée par Amnesty International comprend l’analyse de nouveaux éléments de preuve provenant des «Facebook Papers  –des documents internes rendus publics par la lanceuse d'alerte Frances Haugen.

Dans un document interne datant d’août 2019, un membre du personnel de Meta a écrit : «Nous avons la preuve, apportée par diverses sources, que les discours de haine, les discours politiques clivants et la désinformation sur Facebook [...] nuisent à la société partout dans le monde. Nous disposons aussi de preuves irréfutables montrant que les éléments de base du fonctionnement de notre produit, tels que la viralité, les recommandations et l’optimisation de l’engagement, contribuent de façon considérable à la propagation de ce type de discours sur la plateforme.»

«Meta doit payer»

Amnesty International lance aujourd’hui une nouvelle campagne appelant l’entreprise Meta Platforms, Inc. à satisfaire aux demandes de réparation des Rohingyas.

Ce 29 septembre marque le premier anniversaire du meurtre du militant de premier plan Mohib Ullah, président de l’Arakan Rohingya Society for Peace and Human Rights (Société des Rohingyas de l’Arakan pour la paix et les droits humains). Mohib Ullah était au premier plan de l’initiative de la communauté visant à amener Meta à rendre des comptes.

Des organisations de réfugié·e·s rohingyas ont directement demandé à Meta de leur accorder des réparations en finançant à hauteur d’un million de dollars des États-Unis un projet d’enseignement dans le camp de réfugié·e·s de Cox’s Bazar, au Bangladesh. Cette demande de financement ne représente que 0,002 % des bénéfices engrangés par Meta en 2021, qui se sont élevés à 46,7 milliards de dollars. En février 2021, Meta a rejeté la demande des Rohingyas, en avançant le motif suivant : «Facebook ne participe pas directement à des activités philanthropiques.»

On dénombre actuellement au moins trois plaintes en cours d’examen demandant réparation à Meta pour les Rohingyas. Des poursuites judiciaires ont été engagées au civil contre cette entreprise en décembre 2021 au Royaume-Uni et aux États-Unis. Des organisations de jeunes réfugié·e·s rohingyas ont également engagé contre Meta une procédure devant l'Organisation de coopération et de développement économiques (OCDE), et le dossier est examiné par le Point de contact national aux États-Unis de l’OCDE.

«Meta a la responsabilité au regard des normes internationales relatives aux droits humains d’apporter réparation pour les terribles préjudices subis par les Rohingyas auxquels elle a contribué. Les résultats de l’enquête nous alertent sur le fait que Meta risque de contribuer à d’autres graves atteintes aux droits humains, à moins que l’entreprise ne modifie en profondeur son modèle économique et ses algorithmes», a déclaré Agnès Callamard.

«Meta risque de contribuer à d’autres graves atteintes aux droits humains, à moins que l’entreprise ne modifie en profondeur son modèle économique et ses algorithmes.» Agnès Callamard

«Il est absolument indispensable que Meta procède à une vaste réforme de ses systèmes d’algorithmes afin d’empêcher des abus et d’améliorer la transparence, faute de quoi le drame qui lie Meta et les Rohingyas risque de se reproduire ailleurs dans le monde, en particulier là où couvent des violences ethniques.»

Le 20 mai 2022, Amnesty International a écrit à Meta au sujet des agissements de l’entreprise en lien avec ses activités commerciales au Myanmar avant et pendant les atrocités commises en 2017. Meta a répondu qu’elle ne pouvait pas donner d’informations au sujet de la période antérieure à 2017 parce que l’entreprise est «actuellement engagée dans une procédure judiciaire se rapportant à des questions connexes».

Le 14 juin 2022, Amnesty International a de nouveau écrit à Meta au sujet des allégations exposées dans le rapport, et pour offrir à cette entreprise la possibilité de répondre. Meta a refusé de s’exprimer.