Le dernier rapport d’Amnesty International intitulé Une condamnation à mort pour mon père : comment Meta a contribué aux atteintes aux droits humains dans le nord de l’Éthiopie (en anglais) montre que Meta a une nouvelle fois manqué à sa responsabilité de limiter de manière adéquate la diffusion de contenus prônant la haine et la violence. Cette fois, ce sont les Tigréen·ne·s qui ont été pris·e·s pour cible, lors du conflit armé qui s’est déroulé de novembre 2020 à novembre 2022 dans le nord de l’Éthiopie.
Amnesty International avait déjà documenté comment Meta avait contribué aux violations des droits humains commises contre les Rohingyas au Myanmar et avait mis en garde contre la récurrence de ces préjudices si le modèle économique de Meta et ses algorithmes d’élaboration de contenus ne sont pas revus en profondeur.
«Meta n’a pas pris les mesures qui s’imposaient, même après le déclenchement du conflit.» Agnès Callamard, secrétaire générale d’Amnesty International
«Trois ans après ses défaillances ahurissantes au Myanmar, Meta a une fois de plus contribué à de graves violations des droits humains, par le biais de ses algorithmes de façonnage des contenus et de son modèle d’entreprise avide de données. Avant même le déclenchement du conflit dans le nord de l’Éthiopie, des organisations de la société civile et des spécialistes des droits humains ont signalé à de nombreuses reprises que Meta risquait de contribuer à la violence dans le pays, et ont demandé à l’entreprise de prendre des mesures significatives», a déclaré Agnès Callamard, secrétaire générale d’Amnesty International.
«Meta n’a cependant pas pris ces mises en garde en considération, et n’a pas pris les mesures qui s’imposaient, même après le déclenchement du conflit. En conséquence, Meta a de nouveau contribué à de graves violations des droits humains, perpétrées cette fois contre la communauté tigréenne.»
La plateforme Facebook est une source d’information importante pour de nombreux·ses Éthiopien·ne·s, et est considérée comme fiable. Les algorithmes de Facebook ont eu un impact dévastateur sur les droits humains, en amplifiant des contenus néfastes visant la communauté tigréenne sur Facebook pendant le conflit armé.
Porte-voix des discours haineux
Les recherches effectuées par Amnesty International ont montré que les systèmes algorithmiques de Facebook ont amplifié la diffusion de discours dangereux visant la communauté tigréenne, tandis que les systèmes de modération des contenus de la plateforme n’ont pas détecté ces propos et n’y ont pas réagi de manière appropriée.
Ces défaillances ont au bout du compte contribué à l’assassinat de Meareg Amare, Tigréen et professeur de chimie à l’université. Cet enseignant a été tué par un groupe d’hommes après que des messages le prenant pour cible ont été publiés sur Facebook le 3 novembre 2021. Ces publications contenaient son nom, sa photo, son lieu de travail, son adresse personnelle et affirmaient qu’il était un partisan du Front populaire de libération du Tigré (FPLT), l’accusant d’avoir volé d’importantes sommes d’argent. Ces allégations ont été démenties par sa famille.
Son fils, Abrham Meareg, pense que ces messages hostiles publiés sur Facebook ont contribué à la mort de Meareg Amare : «Je savais que ce serait une condamnation à mort pour mon père», a-t-il déclaré à Amnesty International.
À l’époque, le conflit armé dans le nord de l’Éthiopie, impliquant le FPLT, les forces fédérales éthiopiennes et d’autres groupes armés, faisait rage. Des documents internes de Meta qu’Amnesty International a pu examiner montrent que l’entreprise était consciente des faiblesses de ses mesures de modération en Éthiopie et des risques que cela représentait dans un pays que l’entreprise elle-même considérait comme exposé à un risque élevé de violence. Un document interne de Meta datant de 2020 indiquait que «les stratégies de modération actuelles ne sont pas suffisantes» pour empêcher la diffusion de contenus préjudiciables sur la plateforme Facebook en Éthiopie.
Absence de réaction
Outre l’amplification de contenus préjudiciables, le temps de réponse insatisfaisant de Meta et son refus de retirer des contenus signalés ont amené de nombreuses personnes interrogées par Amnesty International à penser qu’il était inutile de signaler des contenus à l’entreprise. C’est le cas notamment de personnes issues du programme «Trusted Flagger» (partenaires de confiance) de Meta – une initiative visant à fournir à des groupes de la société civile sélectionnés un canal dédié pour alerter Meta au sujet de tout contenu néfaste. Selon une personne interrogée par Amnesty, l’absence de réaction de Facebook face aux alertes a aggravé la situation des droits humains dans le pays.
Meta doit prendre des mesures de toute urgence afin d’atténuer comme il se doit les risques posés par la plateforme Facebook en Éthiopie, alors que ce pays est confronté à une nouvelle crise sécuritaire dans la région Amhara. Une réaction d’autant plus essentielle étant donné que les enquêteur·ice·s désigné·e·s par les Nations unies – ainsi que la conseillère spéciale de l’ONU pour la prévention du génocide – on mis en garde contre un risque accru de génocide et d’atrocités connexes dans le Tigré et dans les régions Amhara, Afar et Oromia.
Remédier à la situation
Meta a la responsabilité de fournir un recours pour les violations des droits humains auxquelles elle a contribué en Éthiopie. Des réformes urgentes et de grande envergure sont nécessaires pour s’assurer que Meta ne contribue plus à ces préjudices en Éthiopie ou dans un seul autre pays.
Les États doivent honorer l’obligation qui leur est faite de protéger les droits humains, en adoptant et en appliquant des lois permettant de contrôler efficacement le modèle économique des géants technologiques. Cela passe notamment par l’interdiction de la publicité ciblée, qui s’appuie sur des pratiques de traçage invasif.
Par ailleurs, les géants de cette industrie sont aussi tenus de respecter les droits humains, indépendamment des obligations des États, faute de quoi ils doivent être amenés à rendre des comptes pour les violations qu’ils ont causées ou auxquelles ils ont contribué.