Kampagne gegen Killer Roboter: Dieses Modell verteilt auf dem Trafalgar Square in London Informationsbroschüren für ein Verbot von Killer Robotern, 2013. © Oli Scarff/Getty Images
Kampagne gegen Killer Roboter: Dieses Modell verteilt auf dem Trafalgar Square in London Informationsbroschüren für ein Verbot von Killer Robotern, 2013. © Oli Scarff/Getty Images

Autonome Waffensysteme (AWS) Zehn Gründe, warum Killer Robots verboten werden müssen

02.12.2015
Amnesty International fordert ein internationales Verbot von Autonomen Waffensystemen (AWS) für Kriegs- und Polizeieinsätze: «Stop Killer Robots»!
  1. Killer Robots bleiben nicht Science Fiction

Killer Robots sind Waffen, die, einmal aktiviert, ohne menschliche Kontrolle operieren: Sie wählen selbständig Ziele aus, greifen an, töten oder verletzen Menschen. Diese Science Fiction-Fantasie wird bald Realität sein. Zahlreiche Vorläufer existieren schon heute.

Die ShadowHawk-Drohne (Vanguard Defense Industries) kann mit einem Granatenwerfer bestückt werden, einem Gewehr mit Laser-Zielvorrichtung oder mit nicht-tödlichen Waffen wie Taser. In Texas schaffte die Polizei 2011 eine unbewaffnete ShadowHawk-Drohne an, North-Dakota erlaubte 2015 als erster US-Bundesstaat Einsätze mit Drohnen, welche Hochspannungs-Elektroschocks verabreichen und so Personen aus der Ferne ausser Gefecht setzen können.

  1. Killer Robots führen zu mehr Gewalteinsätzen

Einige Regierungen argumentieren, dass Killer Robots das Risiko mindern, SoldatInnen ins Schlachtfeld schicken zu müssen oder PolizistInnen grossen Gefahren auszusetzen. Der Einsatz von Killer Robots würde es den Regierungen also einfacher machen, in bewaffneten Konflikten zu intervenieren oder Gewalt anzuwenden, beispielsweise in Polizeieinsätzen bei Protesten. Weil die Soldaten und Polizistinnen dadurch selbst sicherer wären, könnte die Hemmschwelle sinken, Gewalt anzuwenden, was zu mehr Konflikten und Gewaltanwendung führen würde – mit einem erhöhten Risiko für Zivilpersonen.

  1. Killer Robots können Polizeistandards nicht anwenden

Internationale Polizeistandards verbieten die Anwendung von Schusswaffen ausser als Selbstverteidigung bei einer unmittelbaren Bedrohung mit Todes- oder Verletzungsgefahr. Zudem darf die dabei angewendete Gewalt das nötige Minimum nicht überschreiten.

Es ist sehr schwer vorstellbar, wie eine Maschine die menschliche Urteilsfähigkeit ersetzen können soll bei der Beurteilung, ob ein unmittelbares Risiko besteht, dass eine Person jemanden töten wird. Wie soll ein Roboter entscheiden, welche Gewalt angemessen ist, um den Angriff zu stoppen? Doch genau diese Beurteilungen sind wesentlich bei jeder Entscheidung eines Polizisten oder einer Polizistin, eine Waffe einzusetzen. In den meisten Situationen ist die Polizei durch Uno-Standards angewiesen, zuerst nicht-gewalttätige Mittel anzuwenden, bevor sie Zuflucht zu Gewalt nehmen darf: Zunächst soll verhandelt, überzeugt und deeskaliert werden.

Polizeiarbeit ist viel mehr als nur der Einsatz von Gewalt; sie verlangt menschliche Fähigkeiten wie Empathie oder das Vermögen, unvorhersehbare Situationen schnell einschätzen und darauf reagieren zu können. Solche Fähigkeiten können nicht mit Algorithmen simuliert werden. Entscheidungen über Leben und Tod dürfen niemals an Maschinen delegiert werden.

  1. Killer Robots können das Kriegsrecht nicht anwenden

Unterscheidung, Verhältnismässigkeit und Vorsicht – das sind die drei Säulen des Kriegsrechtes (humanitäres Völkerrecht, Genfer Konventionen). Bewaffnete Kräfte müssen in einem Konflikt unterscheiden zwischen Kämpfenden und Nicht-Kämpfenden (Zivilbevölkerung, verletzte oder gefangene SoldatInnen). Zivile Opfer und Schäden an zivilen Einrichtungen dürfen im Verhältnis zum militärischen Ziel nicht übermässig sein. Alle Konfliktparteien müssen angemessene Vorsicht wahren, um die Zivilbevölkerung zu schützen.

All dies erfordert eindeutig menschliche Urteilskraft. Robotern fehlt die Fähigkeit, Absichten hinter den Aktionen von Menschen zu verstehen oder komplexe Entscheidungen zu treffen über die Verhältnismässigkeit und Notwendigkeit eines Angriffes. Ganz zu schweigen von der Notwendigkeit von Mitgefühl und Empathie für die Zivilbevölkerung in einem Krieg.

  1. Killer Robots können nicht verantwortlich gemacht werden

Wenn ein Roboter illegal handeln würde, wer könnte dafür vor Gericht gezogen werden? Die Personen, die ihn programmiert, hergestellt oder eingesetzt haben? Die verantwortlichen Offiziere oder die PolitikerInnen? Für alle diese AkteurInnen wäre es unmöglich einzuschätzen, wie ein Killer Robot in einer bestimmten Situation reagieren würde – und so könnte am Ende niemand zur Verantwortung gezogen werden.

Schon heute sind Untersuchungen über widerrechtliche Tötungen bei Drohnenangriffen sehr selten und noch seltener ist es, dass jemand zur Verantwortung gezogen wird. Im Bericht über die Drohneneinsätze der USA in Pakistan kritisierte Amnesty International die Geheimhaltung rund um diese Tötungspolitik und die Weigerung der Regierung, die rechtlichen Grundlagen für ihre Angriffe darzulegen. Diese Intransparenz verschärft die Befürchtung, dass die USA bei den Drohneneinsätzen die Menschenrechte verletzt.

Jemanden für Drohnenangriffe zur Verantwortung zu ziehen, ist schon schwer genug, bei den Killer Robots wird es fast unmöglich. Ihr Einsatz würde unweigerlich zu einer Zunahme von widerrechtlichen Tötungen führen – sowohl im Schlachtfeld wie bei Polizeieinsätzen.

  1. Killer Robots führen zu einem neuen Wettrüsten

China, Israel, Russland, Südkorea, Grossbritannien und die USA gehören zu den Staaten, die zurzeit Systeme entwickeln, um Waffen grössere Autonomie im Kampf zu ermöglichen. Firmen in verschiedenen Staaten haben bereits halb-autonome Roboter-Waffen entwickelt, die Tränengas, Gummigeschosse oder Elektroschock-Pfeile bei Polizeioperationen einsetzen können.

Die Erfahrungen bei der Entwicklung von Waffen zeigen, dass es nur eine Frage der Zeit ist, bis es zu einem Hightech-Wettrüsten kommt und weitere Staaten Killer Robots entwickeln, kaufen und verbreiten. Killer Robots werden unweigerlich in die Hände von Unrechtsstaaten oder bewaffneten Gruppen und Terroristen gelangen.

  1. Killer Robots das Töten zu erlauben, ist ein Angriff auf die Würde

Robotern die Entscheidung über Leben oder Tod zu überlassen, überschreitet eine fundamentale moralische Grenze. Das Fehlen von Emotion, Empathie und Mitgefühl bei deren Einsatz würde die Menschenrechte auf Leben und Würde verletzen. Maschinen zu nutzen, um Menschen zu töten, ist die ultimative Unwürdigkeit.

  1. Killer Robots werden kaum zu stoppen sein

Wie die unkontrollierte und schnell wachsende Verbreitung der Drohnen zeigt, ist es extrem schwierig, ein Waffensystem zu regulieren oder gar zu stoppen, wenn es einmal im Einsatz ist.

Die «Drone Papers», die im Oktober 2015 von der Online-Publikation «The Intercept» veröffentlicht wurden, dokumentieren die schockierende Politik des tödlichen Drohnenprogramms der USA. Laut diesen Dokumenten waren (in einem dokumentierten Zeitraum von fünf Monaten) fast 90 Prozent der durch US-Drohnen getöteten Opfer «unbeabsichtigte Ziele».

Es scheint fast zu spät, den Einsatz von waffenfähigen Drohnen zu verbieten, aber ihr Einsatz muss drastisch eingeschränkt werden, um zivile Opfer zu vermeiden. Killer Robots würden das Risiko von widerrechtlichen Tötungen noch massiv vergrössern. Deshalb müssen Killer Robots schon jetzt verboten werden. Jede Verzögerung wird zur weiteren Verbreitung dieser Waffen führen.

  1. Roboter-ExpertInnen fordern ein Verbot

Im Juli 2015 haben führende ExpertInnen aus den Bereichen Künstliche Intelligenz und Technologie-Forschung einen offenen Brief unterzeichnet und ein internationales Verbot von Killer Robots gefordert.

Bis jetzt haben 2587 Personen den Aufruf unterzeichnet, darunter zahlreiche Chefs von Unternehmen im Bereich Robotik und Künstliche Intelligenz sowie Google DeepMind-Chef Demis Hassabis, Tesla-CEO Elon Musk, Apple-Gründer Steve Wozniak, Skype-Gründer Jaan Tallin und Professor Stephen Hawking.

Wenn Tausende von Wissenschaftlern und Rechtsexpertinnen so beunruhigt sind über die Entwicklung der Killer Robots und die Kampagne «Stop Killer Robots» unterstützen – worauf warten die Regierungen noch?

  1. Nur Gespräche, keine Entscheidungen

Seit zum ersten Mal im April 2013 über Killer Robots verhandelt wurde, hat man nur an der Genfer Konferenz zur Uno-Konvention über «Certain Conventional Weapons» (CCW) weiter diskutiert. Aber noch nichts entschieden. Es ist irrsinnig, dass dieser realen Gefahr so wenig Zeit und Aufmerksamkeit gewidmet wird und dass es bisher keine Fortschritte gibt.

Für Amnesty International und die weiteren Organisationen der Kampagne «Stop Killer Robots» ist ein totales Verbot für Entwicklung, Verbreitung und Einsatz von Autonomen Waffensystemen die einzige Lösung.

Die Welt kann nicht länger warten, bis auf diese Gefahr reagiert wird. Es ist Zeit für ein Verbot von Killer Robots.