Auch in der Schweiz nutzt die Polizei Gesichtserkennungssoftware. Im Bild: Ein Platz in Mailand. © istock / martinwimmer
Auch in der Schweiz nutzt die Polizei Gesichtserkennungssoftware. Im Bild: Ein Platz in Mailand. © istock / martinwimmer

MAGAZIN AMNESTY Schweiz Überwachen und vorhersagen

Von Florian Wüstholz. Erschienen in «AMNESTY – Magazin der Menschenrechte» vom August 2021.
Die Schweizer Polizei setzt auf algorithmische Prognose-Tools, um vermeintlich gefährliche Menschen zu identifizieren und zu überwachen. Ob Predictive Policing tatsächlich funktioniert, ist nicht bekannt. Dass es unsere Grundrechte tangiert, ist sicher.

Im Film «Minority Report» von 2002 verhindert die Polizei Straftaten, bevor diese überhaupt geschehen. Sie setzt auf hellseherische Visionen, um in die Zukunft zu blicken. So sieht die heutige Realität natürlich nicht aus. Doch die Behörden nutzen Algorithmen, Prognosesoftware und Videoüberwachung, um herauszufinden, was morgen vielleicht passieren könnte. Mit Predictive Policing will die Polizei Gebiete identifizieren, wo Einbrüche besonders wahrscheinlich sind. Oder sie will die vermeintliche Gefährlichkeit von Menschen vorhersagen.

Menschen werden überwacht und präventiv mit Massnahmen belegt, obwohl sie sich nichts haben zuschulden kommen lassen.

Doch Predictive Policing, auf Deutsch vorhersagende Polizeiarbeit, ist ein Angriff auf die Menschenrechte. Menschen werden überwacht und präventiv mit Massnahmen belegt, obwohl sie sich nichts haben zuschulden kommen lassen. Jede Äusserung, jeder Like könnte ein Hinweis darauf sein, dass jemand bald für die Gesellschaft gefährlich werden könnte. Die Betroffenen erfahren oft nie, dass sie im Visier des Staats sind, und können sich auch nicht juristisch wehren.

Auch auf technischer Ebene ist Predictive Policing gefährlich. Meist ist nicht öffentlich, welche Tools und welche Software die Polizei in welchen Situationen und wie oft einsetzt. Die dabei angewandten Algorithmen sind intransparent, mitunter diskriminierend und nicht wissenschaftlich geprüft. Kein Wunder, kommt die kanadische NGO Citizen Lab zum Schluss, dass eine ganze Reihe von Grundrechten tangiert werden: Diskriminierungsverbot, Rechtsschutz, Privatsphäre oder freie Meinungsäusserung.

Pionierin in Europa

Predictive Policing ist also längst keine Dystopie einer imaginierten Zukunft mehr. Sie ist eine Tatsache – auch in der Schweiz, die zu den Pionierländern gehört. Was technisch möglich ist, wird gemacht – ohne demokratische Diskussion, ohne wissenschaftliche Evaluation. Sogenannte Gefährder*innen werden in Datenbanken erfasst und jahrelang gespeichert. Vermeintlich gefährliche Personen sind dort polizeilich erfasst und wissen dies mitunter nicht. Dabei kommen Prognose-Tools wie Ra-Prof, Dyrias, Octagon oder Odara zum Einsatz. Sie sollen mit Fragekatalogen und Skalen die Gefährlichkeit von Menschen einschätzen. Die Software Precobs soll Patrouillen dorthin lenken, wo Einbrüche wahrscheinlich sind. In der Schweiz setzen fast alle Kantone dabei auf die eine oder andere Software.

Besonders im Kontext des jüngst angenommenen Terrorgesetzes PMT ist diese Entwicklung brisant. In den «Gefährder*innen»-Datenbanken sind bereits heute Tausende Menschen gespeichert. Dank den bestehenden Prognose- Tools und den neuen Präventivmassnahmen dürften bald weitere Menschen, die keine Straftaten begangen haben, als Gefährder*innen klassifiziert werden.

In den «Gefährder*innen»-Datenbanken sind bereits heute Tausende Menschen gespeichert.

Die Algorithmen werden auch ohne klare rechtliche Grundlage angewandt, wie eine Recherche des Online-Magazins «Republik» zeigte. So werden in Basel- Stadt erst jetzt die Gesetze geschaffen, obwohl Ra-Prof seit 2016 bereits in über fünfzig Fällen zum Einsatz kam. Das Programm wurde vom Schweizer Zentrum für Gewaltfragen entwickelt und will anhand von vierzig Fragen Radikalisierungstendenzen berechnen. In Schaffhausen, St. Gallen und im Aargau wird Octagon eingesetzt, während die Polizeigesetze revidiert werden. Der vom Psychiatrisch-Psychologischen Dienst des Kantons Zürich entwickelte Fragebogen soll die Gewaltbereitschaft eines Menschen bestimmen. Mindestens elf weitere Kantone setzen auf Octagon.

All das stört die Behörden kaum. Auf Nachfrage verweisen sie auf allgemein gehaltene Paragrafen im Polizeigesetz. Diese erlauben der Polizei Massnahmen zur Prävention von Straftaten. Ob auch die systematische Anwendung von Prognosesoftware dazu gehört, ist mehr als fraglich. Gemäss der Basler Strafrechtsprofessorin Nadja Braun Binder dürften solche Generalklauseln nur in Ausnahmefällen angerufen werden.

Blinder Gehorsam?

Eine öffentliche Debatte über die Beschaffung und den Einsatz von Ra-Prof, Octagon oder Dyrias findet kaum statt. Im Beschaffungsverfahren werde auch «nicht explizit auf die Transparenz und Nachvollziehbarkeit der verwendeten Algorithmen geachtet». Das zeigt eine Studie von Forscher*innen der Hochschule St. Gallen. Die Funktionsweise unterliegt bei vielen Tools dem Geschäftsgeheimnis.

Die Tauglichkeit der Algorithmen wird kaum überprüft.

Dabei wäre absolute Transparenz das Mindeste. Die Tauglichkeit der Algorithmen wird auch kaum überprüft – und wenn, dann mit ernüchternden Ergebnissen. So zeigte SRF, dass Dyrias die Gefährlichkeit von Menschen massiv überschätzt: Zwei von drei Personen werden falsch eingeschätzt. Dyrias soll anhand einer Einteilung von Personen in Kategorien von 1 bis 5 den Handlungsbedarf für verschiedene Bereiche – Arbeitsplatz, Schule, Partner*in – berechnen. Dyrias wird in mindestens sechs Kantonen eingesetzt.

Die Polizei betont, dass die Tools keine Entscheidungen fällen – sie würden nur zur Unterstützung genutzt. Am Ende würden die Beamt*innen entscheiden. Doch so einfach ist es nicht, wie Monika Simmler von der Hochschule St. Gallen zeigt. Die Algorithmen liefern oft eine «Pseudo-Legitimation»: Bei einer Übereinstimmung mit dem eigenen Bauchgefühl dient das Ergebnis der Software als Rechtfertigung. Kommt der Algorithmus zu einem anderen Schluss, wird dieser hinterfragt. Gleichzeitig besteht die Gefahr eines Tunnelblicks: In der Arbeit zählt nur noch das, was von der Software abgefragt und erfasst wird. Andere Daten und Hinweise werden ignoriert, und die Algorithmen können den Kontext oft nicht verstehen.

Von solchen Problemen lässt sich die Schweizer Polizei nicht beeindrucken. Sie fühlt sich und ihre Arbeit missverstanden – die Medien würden einen «Hype» befeuern. Eine Reportage des «Tages-Anzeigers » lieferte dabei einen Einblick in den Alltag der Kantonspolizei Aargau. Diese geht mit Gesichtserkennungssoftware der israelischen Firma Anyvision auf Verbrecher* innen-Jagd. Dabei ist Gesichtserkennung seit Jahren in der Kritik, weil sie rassistisch und sexistisch verzerrt ist und bei Fehlern zu massiven Eingriffen in die Grundrechte führt. Techkonzerne wie Amazon, IBM und Microsoft haben der Polizei deshalb die Nutzung ihrer Tools verboten. Dennoch durchforsten die Kantonspolizeien Aargau, Schaffhausen, St. Gallen und Waadt deren Bildarchive selbst bei Taschendiebstählen automatisch, um verdächtige Personen zu identifizieren. Dabei gibt die Aargauer Polizei auch unverhohlen zu, dass sich die Fehlerquote der genutzten Software nicht eruieren lasse.

So werden die Algorithmen blind eingesetzt. Sie geben vor, in die Zukunft blicken zu können, und opfern dabei Grundrechte, die Menschen vor willkürlichen Eingriffen schützen sollten.