UNTER VERDACHT

Mit Software und Algorithmen versucht die Polizei in den USA, Verbrechen vorherzusehen und zu verhindern. Doch das Konzept steckt in der Krise. Evidenz dafür, dass diese Programme funktionieren, gibt es kaum. Aktivisten sagen, die Programme und Algorithmen verstärkten systemischen Rassismus.

Eine Frau und ihr Liebhaber wälzen sich küssend auf dem Bett. Auf dem Boden daneben kauert der betrogene Ehemann der Dame, eine Schere umklammernd. Er steht auf, hebt die Hand, die Schere bereit, sie in seine untreue Ehefrau zu rammen. Da sprintet ein Polizist die Treppe hinauf, greift den Bewaffneten am Arm und wirft ihn gegen das Fenster. Eine Stoppuhr piept, ein Countdown ist abgelaufen. Der Polizist wirft den Angreifer auf den Boden, legt ihm Handschellen an und ruft: „Howard Marks, sie sind festgenommen für den zukünftigen Mord an ihrer Frau, der um 8.04 Uhr stattgefunden hätte.“

In dieser Szene aus dem Film „Minority Report“ aus dem Jahr 2002 verhindert John Anderton, gespielt von Tom Cruise, Mordfälle, bevor sie passieren. Die Geschichte spielt im Jahr 2054. Eine Sondereinheit der Polizei kann dank Technologie und drei Hellsehern vorhersagen, wer wann wo welches Verbrechen begehen wird – und es so verhindern.

Zur Jahrtausendwende noch Utopie, heute ist die Technologie längst im Einsatz: Zwar befragt die Polizei nicht wie im Film Menschen mit hellseherischen Qualitäten, doch neueste Software will mittels Big Data, Maschinenlernen und Algorithmen voraussagen, wo wann wer welche Verbrechen begehen wird. Computer­programme, die Polizisten an Gefahren-Hotspots oder gleich zu Verdächtigen schicken, wohlgemerkt: bevor etwas passiert ist. Predictive Policing nennt sich diese Technologie, also vorhersagende Polizeiarbeit.

Das Los Angeles Police Department (LAPD) ist die drittgrößte Polizeibehörde der USA und war eine der ersten, die diese Technologie eingesetzt hat. „Polly“ nannte sich die Software des Unternehmens Pred Pol verniedlichend, die das LAPD im Jahr 2016 getestet hat. Polly analysiert Tausende von Daten – zu bereits begangenen Morden, Überfällen, Autodiebstählen, Schießereien und Bandenkriminalität aus den vergangenen fünf Jahren, neuere Daten werden schwerer gewichtet. Die Software identifiziert Muster in für das menschliche Gehirn schier unüberschaubaren Datenmengen, erklärt der CEO des Unternehmens Brian MacDonald. Weil sie aus der Vergangenheit lernt, weiß die Software etwa, dass es im Sommer am Strand rund um den Sonnenuntergang eher zu Taschendiebstählen kommt. Zweimal täglich schickte Polly eine Karte mit zehn bis 15 sogenannten „Hotspots“ an das LAPD, in denen es wahrscheinlich zu einem Verbrechen kommen wird.

Entwickelt wurde Polly von Jeff ­Brantingham, einem Professor für Anthropologie von der Universität von Kalifornien, Los Angeles (UCLA). 2012 gründete er Pred Pol, das jetzt Geolitica heißt. Doch wie zieht die Software ihre Schlüsse? „Wer oder auch was einmal Opfer eines Verbrechens geworden ist, wird es mit hoher Wahrscheinlichkeit wieder“, erklärte Jeff Brantingham, als das LAPD begann, die Software einzusetzen. Dies wird in Fachkreisen als Reviktimisierungsprinzip bezeichnet.

Ganz konkret: Die Menschen, die bereits Opfer von Diebstählen wurden, werden es wahrscheinlich wieder. Wenn ein Einbrecher ein Haus, Auto oder einen Menschen bei der ersten Tat als leichtes und lohnendes Ziel erlebt, schlägt er oder ein anderer mit großer Wahrscheinlichkeit noch einmal zu. Diese Wahrscheinlichkeit ist in den ersten 24 Stunden nach der Tat am höchsten und nimmt dann stetig ab. „Auch Verbrecher wollen effizient sein und mit möglichst geringem Aufwand viel herausschlagen“, erklärte Brantingham nach Vorstellung der Software 2016.

Andere Software geht noch weiter: Das LAPD entwickelte und testete auch schon eine sehr viel detailliertere Version – Laser. Der Name soll Programm sein, sagt Andrew Ferguson, Jurist und Experte für prädiktive Polizeiarbeit. „Das Laser-Programm wurde nach der Metapher entwickelt, dass es, wie eine Laseroperation, die Tumore, die bösen Akteure aus der Gemeinschaft, entfernen kann“, erklärt Ferguson gegenüber CBS News. Laser spuckt konkrete Namen aus, ähnlich wie im Film „Minority Report“. Hinter den Namen stehen Punkte. Je mehr Punkte jemand gesammelt hat, desto schlechter ist sein Ranking: Individuen, die auf Bewährung sind, haben automatisch fünf Punkte. Gangmitglieder bekommen weitere fünf, auch für Waffenbesitz gibt es welche. Die Individuen mit der höchsten Gesamtzahl stehen mit Vor- und Nachnamen auf der „Chronic Offender Bulletin“. Steht man einmal drauf, schlägt dann jeder weitere Polizeikontakt mit einem weiteren Punkt zu Buche.

Chicago experimentierte bereits Anfang der 2000er mit Predictive Policing und dem sogenannten SSL-Programm, kurz für „Strategic Subject List“. Es funktioniert ähnlich wie Laser. Mithilfe eines computergestützten Algorithmus, der vom Illinois Institute of Technology entwickelt wurde, erstellt die Software eine Liste von über 500 Personen, indem sie verschiedene Faktoren untersucht, einschließlich krimineller Vorgeschichte, insbesondere Waffen- oder Drogendelikte sowie Gangkriminalität. Je höher die Punktzahl, desto größer ordnet die Software das Gewaltrisiko ein.

In einer perfekten Welt würden Programme wie Laser oder Polly für mehr Sicherheit und weniger Verbrechen sorgen und für weniger menschliche Irrtümer, weil an der Stelle von Menschen Algorithmen und künstliche Intelligenz Verbrechen analysieren.

Aber der Erfolg von Predictive Policing lässt sich nicht gut belegen: So versuchte beispielsweise die Polizei von Richmond anhand historischer Daten vorherzusagen, wo in der Silvesternacht 2003 Schusswaffen abgefeuert werden würden, und passte ihre Überwachungsrouten an diese Vorhersagen an. Die zufälligen Schüsse gingen in dieser Nacht um 47 % zurück, 246 % mehr Waffen wurden beschlagnahmt, während die Polizei 15.000 US-$ einsparen konnte. Aber die Studie von Albert Meijer und Martin Wessels kommt auch zum Schluss: „Die empirische Evidenz bietet wenig Unterstützung, dass Predictive Policing funktioniert.“

Ein Bericht des Think-Tanks Rand Corporation über die Implementierung von Predictive-Policing-Technologie befindet: „Prädiktive Polizei­methoden sind keine Kristallkugel: Sie können die Zukunft nicht vorhersagen.“

Neben der anzuzweifelnden Effektivität kommt hinzu: In Zeiten, in denen die Namen von George Floyd, Breonna Taylor und Elijah McClain durch die Straßen hallen, unterbrochen nur von „Black Lives Matter“- und „Defund The Police“-Sprechgesängen, werden Polizeigewalt und systemischer, also allem zugrunde liegender Rassismus wieder öffentlich diskutiert. Polizeigewalt gegen Schwarze ist nicht neu. Die „Black Lives Matter“-Bewegung und ihr Kampf gegen rassistisch motivierte Polizeiarbeit sind es auch nicht. Aber die breite Öffentlichkeit ist 2020 wieder daran erinnert worden, was die schwarze Community seit Jahrzehnten zu bekämpfen hat. So steckt Predictive Policing in der Krise.

Unterschiedliche Studien belegen: Es gibt nicht genügend Evidenz dafür, dass Predictive Policing funktioniert.

Jamie Garcia ist Aktivistin und hat 2016 die „Stop LAPD Spying Coalition“ ins Leben gerufen. Die Gruppe sieht sich als Kontrollinstanz des LAPDs und fordert die Abschaffung der Software und Transparenz über die Methoden des LAPDs. Sie halten schwarze und hispanische Nachbarschaften auf dem Laufenden, was das LAPD so plant.

Für Garcia ist Predictive Policing nicht mehr als die moderne Form der rassistischen Polizei­arbeit der letzten Jahrzehnte. Nur versteckten sie sich nun hinter angeblich objektiven Daten und künstlicher Intelligenz. „Die Polizei setzt darauf, dass wir alle unter Amnesie leiden und vergessen, dass die Polizei an sich schon immer rassistisch war“, sagt sie.

Dabei habe sich durch die Software nichts zum Besseren verändert. „In LA zum Beispiel geht es ihnen darum, die ärmeren, schwarzen Communitys von den Weißen zu trennen.“ Deswegen sehe man im schlimmsten Viertel Skid Row auch weniger Hotspots als drum herum. Skid Row umfasst fünfzig Blöcke und knapp acht Quadratkilometer unmittelbar östlich der Innenstadt von Los Angeles. Skid Row gilt als eine der gefährlichsten Gegenden in den USA und hat eine lange Geschichte von Obdachlosigkeit und Polizeirazzien.

Geolitica-CEO Brian MacDonald sagt, seine Software Polly mache Polizeiarbeit effizienter und die Städte sicherer. Garcia erklärt, es gehe weniger darum, gefährliche Viertel sicherer zu machen, sondern vielmehr darum, die schwierigen Nachbarschaften von den anderen zu isolieren. Das Leben in den sogenannten Pufferzonen um die schwierigen Bezirke herum solle für Obdachlose und Anwohner von Skid Row durch ständige Schikane unerträglich gemacht werden, sodass diese die Skid Row gar nicht erst verlassen. Und tatsächlich: Auf einer Karte sind besonders viele Laser-Hotspots um Skid Row herum zu erkennen.

So wirft Predictive Policing ethische Fragen auf: Kann man jemals von der „Chronic Offender“-Liste herunterkommen? Wenn etwa jeder Polizeikontakt mit einem Extrapunkt zu Buche schlägt, der dann wiederum weitere Kontrollen rechtfertigen würde, die dann weitere Punkte mit sich bringen? Sarah Brayne ist Soziologin und Autorin des Buches „Predict and Surveil: Data, Discretion, and the Future of Policing“. Darin schreibt sie, Polizisten würden die Häufigkeit, mit der Menschen kontrolliert werden, als Indikator dafür nehmen, wie verdächtig eine Person ist. Sprich Polizisten können sich ihre eigenen Verdächtigen „basteln“, indem sie den Menschen besonders häufig besuchen und seine Daten abrufen. „Das ist eine selbsterfüllende Prophezeiung und die Daten bestätigen sich selbst“, sagt Brayne. „Es geht allein um die Rekriminalisierung von Individuen“, sagt auch Garcia. Schwarze und andere Minderheiten stünden unter Generalverdacht.

Garcias Organisation wirft dem LAPD und Geolitica deshalb vor, dass sie mit ihrer Software systemischen Rassismus verstärken, weil sie vor allem ärmere BIPoC (Black, Indigenous and People of Color) – nur jetzt legitimiert mit Software. Brian MacDonald hält dagegen: „Wir nehmen Subjektivität aus der Gleichung.“

Dabei habe die Verwendung von Daten gegen schwarze Communitys Tradition, sagt Yeshimabeit Milner, Direktorin und Mitgründerin von Data for Black Lives, einer Organisation für digitale Rechte. Das haben auch die drei Forscher Rashida Richardson, Jason Schultz und Kate Crawford von der Northeastern University, der New York University School of Law und dem AI Now Institute untersucht. Sie veröffentlichten am 13. Februar 2019 eine Studie, in der sie schreiben, Systeme und Software basierten auf Daten, die während dokumentierter Perioden fehlerhafter, rassistisch voreingenommener Polizeiarbeit („dirty policing“) produziert wurden. Und schmutzige Polizeiarbeit produziert „schmutzige Daten“.

Eine neue Studie von Ravi Shroff von der New York University und seinen Kollegen beim Stanford Open Policing Project ergab, dass in einem Datensatz von fast 100 Millionen Verkehrskontrollen in den Vereinigten Staaten schwarze Fahrer im Verhältnis zu ihrem Anteil an der Wohnbevölkerung etwa 20 % häufiger angehalten wurden als weiße Autofahrer. Die Studie ergab auch, dass schwarze Fahrer nach dem Anhalten etwa 1,5- bis zweimal häufiger durchsucht wurden als weiße Fahrer, obwohl sie im Vergleich zu weißen Fahrern weniger wahrscheinlich Drogen, Waffen oder andere illegale Ware bei sich trugen.

Die Stop LAPD Spying Coalition geht inzwischen sogar vor Gericht gegen das LAPD vor. Sie will vor allem eines: Transparenz. „Diese Leute müssen wenigstens wissen, dass sie auf einer Liste stehen.“ Sie haben vor Gericht bereits gegen das LAPD gewonnen. Laut Garcia hat die Stop LAPD Spying Coalition das LAPD gerichtlich gezwungen, Hunderte von Dokumenten zu teilen, darunter Karten und Missionsblätter des Laser-Programms. Der LAPD-Generalinspekteur startete Anfang 2019 eine interne Prüfung von Laser, die viele der Befürchtungen von Garcia bestätigte: Fast die Hälfte der „chronischen Straftäter“ hatte gar keine oder nur eine Fest­nahme wegen eines Gewaltverbrechens, und fast 10 % hatte keine „Qualitätsinteraktionen“ mit der Polizei. Die Überprüfung ergab auch, dass Latinos und Afroamerikaner 84 % der 233 als „aktiv“ klassifizierten Straftäter ausmachten. Das Programm sah dies jedoch nicht als Überrepräsentation an, schließlich sahen die Zahlen der Verhaftungen von Gewaltverbrechen zwischen 2012 und 2018 ähnlich aus. Das Laser-Programm wurde daraufhin gestoppt.

Auch Pred Pol wird seit April 2020 nicht mehr genutzt. Das aber habe nichts mit „drei lauten Einzelpersonen zu tun, die Wind machten“, sagt CEO Brian MacDonald. Es sei eine Budgetfrage, das LAPD habe sparen müssen. Er zweifle aber nicht daran, dass es eine weitere Zusammenarbeit mit dem LAPD geben wird. Ein Bewusstsein dafür, wie kontrovers die Software seines Unternehmens wahrgenommen werden kann, hat er aber schon. Sein Unternehmen Pred Pol heißt nun Geolitica. „Predictive klingt hässlich und außerdem geht es einem auch nicht so leicht von der Zunge.“

Text: Sophie Schimansky
Illustrationen: Valentin Berger

Dieser Artikel erschien in unserer Ausgabe 6–21 zum Thema „NEXT“.

Up to Date

Mit dem FORBES-NEWSLETTER bekommen sie regelmässig die spannendsten Artikel sowie Eventankündigungen direkt in Ihr E-mail-Postfach geliefert.