Les algorithmes de Facebook et la recherche impitoyable du profit par Meta ont créé une chambre d'écho qui a contribué à attiser la haine envers les Rohingyas et à créer les conditions qui ont poussé ce groupe ethnique à fuir massivement le Myanmar.
« Six années se sont écoulées depuis que Meta a contribué aux terribles atrocités perpétrées contre les Rohingyas. Pourtant, bien qu'il s'agisse de l'un des exemples les plus flagrants de l'implication d'une entreprise de médias sociaux dans une crise des droits humains, les Rohingyas attendent toujours des réparations de la part de l’entreprise », a déclaré Pat de Brún, responsable du programme Big Tech Accountability d'Amnesty International.
« Nos enquêtes ont clairement montré que les dangereux algorithmes de Facebook, conçus pour favoriser ‘l'engagement‘, et la recherche du profit à tout prix, ont activement attisé les flammes de la haine et contribué à la violence de masse, ainsi qu'au déplacement forcé de plus de la moitié de la population rohingya du Myanmar vers le Bangladesh voisin.
« Il est grand temps que Meta assume ses responsabilités en versant des réparations aux Rohingyas et en modifiant son modèle d'entreprise pour éviter que cela ne se reproduise. »
Par coïncidence, le 25 août marque également une étape importante dans la responsabilisation des grandes entreprises technologiques en matière de droits humains, puisque c'est à cette date que les principales dispositions du règlement sur les services numériques (Digital Services Act) entrent en vigueur pour les grandes plateformes en ligne dans l'Union européenne. Le règlement sur les services numériques est un texte législatif historique qui vise à renforcer les droits à l'ère numérique et qui pourrait avoir des répercussions bien au-delà de l'Union européenne.
Un appel personnel à Meta et Mark Zuckerberg
Aujourd'hui, Amnesty International et Al Jazeera publient un témoignage bouleversant de Maung Sawyeddollah, un réfugié rohingya, qui a été contraint de fuir son village au Myanmar alors qu'il n'était qu'un adolescent. Il a traversé des villages incendiés et des champs remplis de cadavres et vit aujourd'hui dans le plus grand camp de réfugiés du monde, Cox's Bazar, au Bangladesh, avec environ un million des sien·ne·s.
Enfant, avant que la haine ne prenne racine grâce à Facebook, lui et ses amis rohingyas – majoritairement musulmans –, jouaient joyeusement avec les enfants rakhines – majoritairement bouddhistes – du village voisin. Mais tout a changé lorsque les militaires sont arrivés.
« J'aimerais rencontrer Mark Zuckerberg et son équipe. Peut-être voudraient-ils venir passer une nuit ou deux dans le camp de réfugiés ? », écrit Sawyedollah. « Je lui dirais : 'Ne voyez-vous pas le rôle que vous jouez dans nos souffrances ? Nous vous avons demandé, à plusieurs reprises, d'essayer d'améliorer les choses pour nous... Pourtant, vous ignorez nos appels. Dites-moi, ressentez-vous quelque chose pour nous ? S'agit-il seulement de données, d'argent ?’ »
Contexte
L'année dernière, Amnesty International a publié un rapport détaillant le rôle de Meta dans les atrocités commises contre les Rohingyas par l'armée du Myanmar en 2017. Ce rapport révélait que même les études internes de Facebook datant de 2012 indiquaient que Meta savait que ses algorithmes pouvaient entraîner de graves préjudices dans le monde réel. En 2016, les propres recherches de Meta ont clairement reconnu que « nos systèmes de recommandation développent le problème » de l'extrémisme.
À partir d'août 2017, les forces de sécurité du Myanmar ont entrepris une campagne brutale de nettoyage ethnique contre les musulmans rohingyas dans l'État de Rakhine au Myanmar. Elles ont tué illégalement des milliers de Rohingyas, y compris de jeunes enfants, violé et commis d'autres violences sexuelles contre des femmes et des filles rohingyas, torturé des hommes et des garçons rohingyas dans des sites de détention et incendié des centaines de villages rohingyas. Ces violences ont poussé plus de 700 000 Rohingyas – plus de la moitié de la population rohingya vivant dans le nord de l'État de Rakhine au début de la crise – à se réfugier au Bangladesh voisin.
Meta a contribué aux graves atteintes aux droits humains subies par les Rohingyas dans le contexte des atrocités commises en 2017 dans l'État de Rakhine. L’entreprise porte donc la responsabilité, en vertu des normes internationales en matière de droits humains, d'offrir des compensations à la communauté. Parmi ces mesures, elle est tenue d’apporter les changements nécessaires à son modèle d'entreprise de façon à garantir que de tels événements ne se reproduiront plus jamais. Toutes les entreprises ont la responsabilité de respecter l’ensemble des droits humains, où qu'elles opèrent dans le monde et tout au long de leurs activités.
Cliquez ici pour lire l'histoire de Maung Sawyeddollah et d'autres contenus connexes sur amnesty.org, notamment une analyse de Pat de Brún, responsable du programme Big Tech Accountability à Amnesty International.