Près de 700 000 Rohingyas ont fui les exactions de l’armée birmane. © AI
Près de 700 000 Rohingyas ont fui les exactions de l’armée birmane. © AI

Myanmar Facebook, moteur de haine

Par Julien Moschetti - Article paru dans le magazine AMNESTY n° 95, Décembre 2018
Le réseau social est soupçonné d’avoir fermé les yeux sur les appels au meurtre et à la discrimination contre les Rohingyas. Pire, la plateforme affectionnerait les contenus extrêmes qui attirent les utilisateurs, générant du contenu publicitaire, donc du profit.

«Violations des droits de l’homme ». C’est ce motif que le géant des réseaux sociaux invoque le 27 août dernier pour justifier la fermeture de la page Facebook du chef de l’armée birmane, le général Min Aung Hlaing. Ironie du sort, cette annonce intervient le jour même où les enquêteurs de l’ONU demandent à la justice internationale de le  poursuivre, ainsi que cinq autres haut gradés de la junte birmane, pour « génocide », « crimes contre l’humanité » et  « crimes de guerre » à l’encontre des musulmans rohingyas.

Le 12 mars 2018, le président de la mission d’enquête internationale indépendante des Nations unies en Birmanie Marzuki Darusman, accusait les réseaux sociaux d’avoir joué un « rôle déterminant » dans la propagation des  discours de haine au Myanmar. En ligne de mire : Facebook, suspecté d’avoir « contribué de manière substantielle au  niveau d’acrimonie, de dissension et de conflit au sein de la population », alors même que, depuis plusieurs  années, des voix s’élèvent pour dénoncer le génocide des Rohingyas. Quant au général Min Aung Hlaing, il avait  migré sur le réseau social russe VK qui, à son tour, a fermé son compte le 17 septembre.

Trente millions d’utilisateurs

Le réseau social est le média principal des Birmans. Le nombre d’utilisateurs est passé d’environ 2 millions en 2014  à près de 30 millions, soit plus de la moitié de la population. Principales raisons : la chute du prix des cartes SIM de  3000 à 1 euro en sept ans, et la vente de téléphones où l’application Facebook est pré-installée. Un cadeau du ciel  pour le gouvernement qui l’utilise largement pour sa communication officielle.

Selon le New York Times, Zaw Htay, le porte-parole du gouvernement, serait à l’origine d’une douzaine de  publications sur sa page contenant des images pour démontrer que les Rohingyas incendiaient leurs propres  maisons. La réalité sur le terrain était tout autre, assure Kyaw Win, directeur de l’ONG Burma Human Rights Network (BHRN), qui dispose, depuis 2012, d’une équipe dédiée à la surveillance des discours de haine sur internet.

Le gouvernement a recruté des centaines d’hindous dont la couleur de peau ressemblait à celle des Rohingyas. Ils les ont vêtus des tuniques de musulmans et leur ont demandé de mettre le feu à des maisons, puis ils ont diffusé les  photos sur les médias birmans et les réseaux sociaux. Kyaw Win accuse les autorités birmanes d’avoir « créé de  toutes pièces des fake news », mais aussi Facebook d’avoir trop longtemps fermé les yeux sur les prêcheurs de haine qui inondent la plateforme d’appels à la violence.

Parmi eux, le moine bouddhiste extrémiste Ashin Wirathu, qui bénéficie d’une puissante caisse de résonance grâce à ses centaines de milliers d’abonnés sur Facebook. Selon Kyaw Win, Wirathu attaque les musulmans sur les réseaux sociaux depuis 2012. Jusqu’à ce que Facebook prenne la décision de supprimer son compte en février 2018, soit six mois après les attaques sanglantes d’août 2017… « Quand la contestation internationale a commencé à monter,  Facebook a compris qu’il pourrait être affecté par le génocide birman et a fini par supprimer son compte, analyse Kyaw Win. Cela montre l’hypocrisie de l’entreprise, préoccupée uniquement par le profit. » Il fustige ainsi « l’irresponsabilité » de la firme de Mark Zuckerberg, coupable d’avoir mis en place un système de  modération à géométrie variable. « Quand on signale des discours de haine à Facebook, ils rétorquent qu’ils  n’enfreignent pas les standards de leur communauté. »

Des messages supprimés

Aung Tin, président de la Burmese Muslim Association (BMA), assure « n’avoir jamais promu la haine sur la  plateforme, mais plutôt l’amour et la tolérance » parce qu’il s’est toujours «farouchement opposé aux extrémismes». En septembre 2016, un militaire poste le message suivant sur Facebook : « Je tuerai les ‘dog-Kalar’ [ Rohingyas, ndlr ] et leur dieu Allah avec mon pistolet . » Aung Tin réplique que « la dictature militaire est en train d’empoisonner les esprits des gens » et voit son compte Facebook désactivé durant trois jours, tandis que le post du militaire reste en ligne.

Pour Kyaw Win, « Facebook se contente de supprimer les contenus et les comptes quand l’entreprise reçoit un grand nombre de signalements. Ses modérateurs ne vérifient pas dans le détail le contenu ou le contexte des posts. » Une analyse que nuance Fabrice Epelboin, enseignant à Sciences Po et spécialiste des réseaux sociaux. « Si les systèmes de modération de Facebook étaient essentiellement déclenchés par des dénonciations en masse il y a une dizaine d’années, Facebook utilise désormais l’intelligence artificielle pour personnaliser le flux d’informations que vous recevez, mais aussi pour pondérer et modérer les contenus. »

«Une machine à conflits»

Plus grave encore : les algorithmes de Facebook offriraient une visibilité accrue aux messages virulents. Selon un  article du New York Times, les publications les plus partagées et les plus « likées » occuperaient une place privilégiée dans le fil d’actualités de Facebook, favorisant les contenus les plus partisans. Une hypothèse confirmée par Fabrice Epelboin : « La haine et l’agressivité génèrent de l’engagement, c’est-à-dire de l’interaction, des échanges, du temps passé sur la plateforme, donc des revenus publicitaires. »

Interrogé sur son rôle dans la propagation des discours de haine en Birmanie devant le Congrès américain en avril  dernier, Mark Zuckerberg a répondu par une pirouette : « Déterminer si quelque chose est un discours de haine est  très complexe linguistiquement. Vous avez besoin de comprendre ce qu’est une insulte et si quelque chose est odieux, et pas seulement en anglais… », a-t-il prétendu. Le patron de Facebook était également accusé d’avoir laissé circuler en septembre dernier une rumeur annonçant des attaques imminentes de bouddhistes et de musulmans. Les messages n’auraient été supprimés que quatre jours après, alors que des signalements étaient intervenus très  vite sur la plateforme… Sommé de réagir, Mark Zuckerberg a annoncé qu’il allait renforcer son système d’alerte au sein de l’application Messenger. Mais selon Fabrice Epelboin, le géant américain n’aura jamais la capacité financière de mettre en place un système de modération digne de ce nom, car l’entreprise est « coincée dans un modèle économique qui l’oblige à afficher des profits toujours plus croissants pour éviter la chute de ses cours en Bourse. »

Sur quelles bases l’entreprise pourra-t-elle rendre des comptes à propos de contenus haineux ? L’intelligence  artificielle ne permettra pas de tout régler. Si elle s’appuie sur les logs, c’est-à-dire des fichiers stockant un historique des actions sur un compte, « ce sera difficile, d’autant plus que tout sera aux mains d’entreprises privées… Donc  vous allez confier la justice de votre pays –que ce soit la France ou la Birmanie– à un algorithme régi par une   puissance étrangère », explique Fabrice Epelboin. Les puissants algorithmes de Palantir, une start-up de la Silicon  Valley dont le cofondateur Peter Thiel siège au conseil d’administration de Facebook, ont la capacité d’exploiter de gigantesques quantités de données. L’entreprise aurait notamment analysé les données de 87 millions d’utilisateurs de Facebook dans le cadre du scandale Cambridge Analytica qui a défrayé la chronique en mars dernier. Ses services sont aussi utilisés par la CIA, le FBI ou la NSA. Confier les rênes de la justice sur Facebook aux algorithmes de Palantir reviendrait donc à donner le pouvoir aux services de renseignement américains. À se demander si Einstein n’avait pas vu juste quand il a déclaré : « Le monde ne sera pas détruit par ceux qui font le mal, mais par ceux qui les regardent sans rien faire. »