© Amnesty International
© Amnesty International

Äthiopien Metas Versagen befeuert Gewalt gegen Zivilbevölkerung in Tigray

Medienmitteilung 31. Oktober 2023, London/Bern – Medienkontakt
Der Facebook-Mutterkonzern Meta hat mit der Verbreitung von Hass und Gewaltposts zu schwerwiegenden Menschenrechtsverletzungen gegen die Zivilbevölkerung in der nordäthiopischen Region Tigray beigetragen. Dies geht aus einem neuen Bericht von Amnesty International hervor.

Der Bericht «A death sentence for my father: Meta’s contribution to human rights abuses in northern Ethiopia» zeigt, dass Meta es erneut versäumt hat, Hass- und Gewaltposts aus dem Netz zu nehmen. Stattdessen begünstigten die algorithmischen Systeme von Facebook die Verbreitung solcher Posts und machten zahlreiche Menschen zur Zielscheibe.

«Drei Jahre nach seinem vollständigen Versagen im Fall der Rohingya in Myanmar hat Meta durch seine Algorithmen und sein datenhungriges Geschäftsmodell erneut zu schweren Menschenrechtsverletzungen beigetragen.» Agnès Callamard, Generalsekretärin von Amnesty International

«Drei Jahre nach seinem vollständigen Versagen im Fall der Rohingya in Myanmar hat Meta durch seine Algorithmen und sein datenhungriges Geschäftsmodell erneut zu schweren Menschenrechtsverletzungen beigetragen. Vor dem Ausbruch des Konflikts in der Region Tigray ignorierte Meta Warnungen von Menschenrechtsorganisationen und dem Facebook-Aufsichtsrat. Selbst nach dem Beginn des Konflikts ergriff der Konzern keine Massnahmen gegen die gewalttätigen und hasserfüllten Posts auf seinen Plattformen. Die massenhafte Verbreitung dieser Posts hat die angespannte Stimmung weiter aufgeheizt und zu Diskriminierung und Gewalt gegen die tigrayische Bevölkerung beigetragen», sagte Agnès Callamard, Generalsekretärin von Amnesty International.

Facebook ist für viele Äthiopier*innen eine wichtige Informationsquelle, die als vertrauenswürdig eingestuft wird. Doch die Algorithmen der Plattform haben verheerende Auswirkungen auf die Menschenrechte. Die Recherchen von Amnesty International ergaben, dass die Algorithmen während des bewaffneten Konflikts in Tigray von November 2020 bis November 2022 die Verbreitung feindseliger Rhetorik befeuerten. Gleichzeitig waren die Moderationssysteme der Plattform nicht in der Lage, solche Inhalte zu erkennen und angemessen darauf zu reagieren.

Diese Versäumnisse trugen beispielsweise zur Vertreibung der regierungskritischen Journalistin Lucy Kassa und der Tötung des tigrayischen Chemieprofessors Meareg Amare bei. Lucy Kassa musste aus dem Land fliehen, nachdem ein Regierungsaccount sie auf Facebook mit einem Foto angeprangert hatte und die Postings viral gingen. Meareg Amare wurde von einer Gruppe von Männern getötet, nachdem er am 3. November 2021 mittels Facebook-Posts ins Visier genommen wurde.

Interne Dokumente von Meta, die von Amnesty International ausgewertet wurden, zeigen, dass der Konzern von den Unzulänglichkeiten seiner Schutzmassnahmen in Äthiopien und den damit verbundenen Risiken wusste. Das Unternehmen selbst hat das Land als hochgradig gewaltgefährdet eingestuft. In einem internen Meta-Dokument aus dem Jahr 2020 wird gewarnt, «dass die derzeitigen Strategien zur Schadensbegrenzung nicht ausreichen», um die Verbreitung schädlicher Inhalte auf Facebook in Äthiopien zu stoppen. Der eigene Facebook-Aufsichtsrat hat Meta im Jahr 2021 empfohlen, eine unabhängige Menschenrechtsverträglichkeitsprüfung in Äthiopien durchzuführen.

Bei Meta sind die Algorithmen zur Gestaltung von Inhalten darauf ausgelegt, die Nutzer*innen so lange wie möglich auf den Plattformen zu halten. Da verletzende, aufstachelnde und polarisierende Inhalte bei Nutzer*innen am meisten Aufmerksamkeit erregen, werden diese oft bevorzugt angezeigt. So stellt das Unternehmen eine anhaltende Gefahr für die Menschenrechte dar, insbesondere in Konfliktgebieten.

Von Amnesty International befragte Personen aus Metas «Trusted Flagger»-Programm kamen zu dem Schluss, dass es wegen der langsamen Reaktionszeit und der Weigerung, gemeldete schädliche Inhalte zu löschen, aussichtlos ist, dem Unternehmen solche Inhalte überhaupt zu melden.

«Auch Big-Tech-Unternehmen haben die Pflicht, die Menschenrechte zu achten. Wenn sie dies nicht tun, müssen sie für die von ihnen verursachten oder mitverantworteten Menschenrechtsverletzungen zur Rechenschaft gezogen werden», sagte Agnès Callamard.

Äthiopien ist mit einer weiteren Sicherheitskrise in der Amhara-Region konfrontiert. Meta muss nun dringend Massnahmen ergreifen, um die von Facebook ausgehenden Gefahren in Äthiopien einzudämmen. Angesichts der Warnungen von Uno-Ermittler*innen vor möglichen zukünftigen Gräueltaten sind solche Schritte von entscheidender Bedeutung.

Staaten müssen ihrer Verpflichtung zum Schutz der Menschenrechte nachkommen, indem sie Gesetze verabschieden und durchsetzen, um das Geschäftsmodell von Big Tech wirksam einzudämmen. Dazu gehört auch das Verbot gezielter Werbung auf der Grundlage invasiver Tracking-Praktiken.