Algorithmen

Die Algo-Cops

Wie viel Daten darf die Polizei sammeln? Foto: Mopic/Shutterstock.com

Foto: Mopic/Shutterstock.com

In einem bestimmten Wohngebiet wird zum dritten Mal innerhalb einer Woche eingebrochen. Zufall? Nein, das sogenannte Near-Repeat-Phänomen besagt, dass sich professionelle Einbrecher häufig dieselben Ziele suchen. Das ist die Grundlage für Predictive Policing, die Computertechnik, die Verbrechen vorhersagen will. Reinhard Kreissl ist Soziologe und forscht am Vienna Centre for Societal Security am Thema Predictive Policing und dessen Entwicklung.

Von Luisa Heß und Valerie Krall

Herr Kreissl, stellen wir uns folgendes Szenario vor: Ein Mann wird in Deutschland auf offener Straße verhaftet. Ein Verbrechen hat er nicht begangen, aber das wird er – sagt zumindest ein Algorithmus. Ist das nur Spinnerei oder die Zukunft der Polizeiarbeit?

Das ist Spinnerei. Da sind wir, Gott sei Dank, noch weit davon entfernt. Dieses Szenario, das sie da beschreiben, ist noch eher Hollywood als Realität.

Und wie sieht die Realität dann aus in Bezug auf Predictive Policing und die Polizeiarbeit?

Man muss das mal im Zusammenhang sehen. Es gibt die Herausforderung, die immer knapper werdenden personellen Ressourcen, die die Polizei hat, effektiv einzusetzen. Das ist ja der Treiber hinter dem Ganzen. Ich habe zum Beispiel zehn Polizisten und müsste aber 20 einsetzen. Wie kann ich nun diese zehn Polizisten sinnvoll dort aktiv werden lassen, wo möglicherweise etwas geschieht? Predictive Policing ist ja im Wesentlichen alles, was es momentan an Systemen auf dem Markt gibt, die auf die häufige Verbreitung von Verbrechen abzielen.
Man muss unterscheiden zwischen solchen Algorithmen, die etwa in den USA in Gebrauch sind. Da habe ich ein Individuum und über diese Person habe ich eine Reihe von Daten und der Algorithmus berechnet dann, wie wahrscheinlich es ist, dass diese Person ein Risiko ist und rückfällig wird. Im Gegensatz dazu ist Predictive Policing, dass man sagt, ich habe einen Polizeibezirk und ich möchte wissen, wo passiert morgen mit hoher Wahrscheinlichkeit ein Wohnungseinbruch, eine Straftat. Und dann verwende ich eine Reihe von mehr oder weniger sinnvollen Indikatoren und historischen Daten, um dies zu berechnen, auf der Basis von Annahmen, wie zum Beispiel dem Near-Repeat-Phänomen. Das besagt, dass ein Täter in derselben Gegend wieder zuschlagen wird. In wie weit diese Annahmen richtig sind, ist wieder eine völlig andere Frage. Aber das ist Predictive Policing.

Klappt das denn, also gibt es belastbare Ergebnisse, dass durch Predictive Policing Straftaten verhindert werden?

Es gibt eine Reihe von Studien, im Wesentlichen aus den USA, wo behauptet wird, Verbrechen gingen zurück. Aber die Kritik an diesen Studien ist, dass sie zum einen nicht unabhängig gemacht worden sind und das auf der anderen Seite natürlich der Rückgang von Kriminalität in einer bestimmten Gegend ja auch mit vielen anderen Faktoren zu tun hat. Also es gibt diese Studien, ja, aber man kann diese Studien kritisieren, weil sie natürlich auch oft von Polizeieinheiten durchgeführt werden, die dieses Predictive Policing einsetzen.
Und dann muss man auch einmal berücksichtigen, dass Predictive Policing auch ein Business Case ist. Das sind Programme, die große Firmen wie etwa IBM entwickeln – und dann natürlich ihr Zeug loswerden wollen. Also, ob die Programme funktionieren, da muss man sehr vorsichtig sein.
Sie haben ja eben schon die USA angesprochen, da gibt es Bundesstaaten oder Police Departments, die auf die Methode bereits schwören.

Warum hinken wir da in Deutschland noch hinterher? Hier gibt es ja erst einige Pilotprojekte.

Naja, es gibt hier ein Unternehmen, das sehr aktiv ist, das sich auch in Bayern, in Nürnberg, implementiert hat: Precobs. Die Deutschen hinken hinterher aus zwei Gründen. Zum einen ist die Rezeptionsfähigkeit für technologische Innovationen im deutschen Sicherheitssystem der Polizei nicht so wie in den USA. Die sind da einfach schneller, wenn es darum geht, neue Entwicklungen zu adaptieren. Und das andere ist natürlich, – da muss ich sagen Gott sei Dank – dass wir ja einen anderen rechtlichen Rahmen haben für polizeiliches Handeln. Also viele der Dinge, die zum Beispiel so groß angepriesen werden, was die Amerikaner machen, können wir hier nicht machen. Wir können jetzt nicht einfach ohne Weiteres mobile Bewegungsdaten von irgendwelchen Verdächtigen verfolgen. Also zum Beispiel: Ich verfolge über mobile Daten drei Rocker, die in eine Richtung fahren und drei andere Rocker, die auch in diese Richtung fahren und dann wahrscheinlich dort in den nächsten drei Stunden ein Gangfight stattfinden wird. Das können wir hier nicht machen.
Viele der Daten, die einer US-amerikanischen Polizeibehörde zugänglich sind, die in ein Predictive-Policing-Programm eingefüttert werden, die haben wir hier gar nicht. Die stehen uns nicht zur Verfügung, zum einen, weil es gesetzliche Schranken gibt. Zum anderen, weil die Daten, die wir hier haben, auch nicht so gut sind. Ich mache Ihnen ein Beispiel. Sie wollen die Tageszeit herausfinden, zu der am meisten Wohnungseinbrüche stattfinden. Da verlassen Sie sich auf polizeiliche Daten, also die Polizei trägt die Uhrzeit ein, wenn Sie irgendwohin gerufen wird, wann dieser Wohnungseinbruch stattgefunden hat. Wenn aber jemand morgens seine Wohnung verlässt und erst abends merkt, dass eingebrochen wurde und die Polizei ruft, dann weiß die Polizei nicht, wann genau der Einbruch war. Dann tragen sie zum Beispiel 12 oder 15 Uhr ein, also irgendwelche Daten. Und diese Daten werden dann zur Grundlage für algorithmische Berechnungen. Das heißt, die Daten, die in solche Algorithmus basierten Berechnungen von Predictive Policing einfließen, sind von zweifelhafter Qualität, um es mal vorsichtig auszudrücken.

Jetzt haben Sie gerade schon angesprochen, dass es in Deutschland rechtlich ganz anders aussieht als etwa in den USA. Gerade nach Ereignissen wie etwa dem Attentat in Berlin wird auch in Deutschland immer mehr über Sicherheit diskutiert. Und das Ziel von Predictive Policing ist ja eigentlich ein ganz tolles: Es soll Einbrüche verhindern, Menschen helfen und die Sicherheit erhöhen. Kann man da überhaupt etwas dagegen haben?

Ja, also noch mal, das ist das, was vornedran steht, also auf der Vorderseite. Aber letztendlich ist das Motiv, so etwas einzuführen, auf Seiten der Polizeiverwaltung und des Polizeimanagements, Ressourcen zu sparen. Also geht es um den gezielten Einsatz knapper Ressourcen. Und der Nebeneffekt, der so natürlich der Öffentlichkeit auch verkauft wird, ist höhere Sicherheit, Verhinderung von Verbrechen, etc. Aber letztendlich geht es erst einmal um den effektiveren Ressourceneinsatz und um Geldsparen bei der Polizei. Das ist der eigentliche Treiber dahinter.
Zum Thema Berlin: Hier sehen wir auch immer häufiger, wir brauchen nicht mehr Daten und wir brauchen keine besseren Formen der Kalkulation von Daten, sondern wir brauchen eine bessere interne Kommunikation, einen besseren Austausch und eine bessere Zusammenarbeit zwischen den verschiedenen Sicherheitsbehörden. Da brauche ich kein Predictive Policing, da brauche ich einfach eine bessere Organisationsstruktur und eine bessere Kommunikation zwischen den Behörden. Aber Predictive Policing klingt ja toll: Computer, Computer, wir wissen alles!

Gegenüber dem Erfolg von Predictive Policing sind sie ja eher noch skeptisch. Wenn man davon ausgeht, dass sich das System in Zukunft noch verbessern wird – sehen Sie dann trotzdem noch negative Effekte?

Ja, ganz bestimmt, die haben Sie in allen Bereichen. Es gibt zum Beispiel Untersuchungen, was DNA-Datenbanken angeht, dass sie dort immer Überrepräsentationen ethnischer Minderheiten haben, weil die häufiger bei Straftaten erwischt werden. Die Wahrscheinlichkeit, durch einen DNA-Datenabgleich erwischt zu werden, ist für ein Mitglied einer Randgruppe höher als für einen typischen White-Anglosaxon-Middleclass-Male-Täter oder Tatverdächtigen.
Und, bei Predictive-Policing-Verfahren wird ein Crime Mapping gemacht und dabei werden zum Beispiel gefährliche Gegenden herausgefiltert. Das führt dann dazu, dass genau die Gegenden, in denen die armen Leute leben, mehr kontrolliert werden, was dann wiederum bedeutet, dass dort mehr Straftaten entdeckt werden. Es gibt dann eine positive Rückkopplung, nämlich, dass diese Gegenden natürlich in Zukunft auch als kriminell erscheinen. Solche Effekte haben Sie letztendlich immer bei solchen Verfahren wie Predictive Policing oder sonstigen algorithmischen Verfahren.

Welche Werte müssen wir dann eventuell für mehr Sicherheit beziehungsweise für Predictive Policing opfern?

Naja, was heißt Werte opfern? Ich meine, die Polizei führt derzeit ihre Daten ein und was man dagegen sagen kann, ist: Sie sollten mal ihre Algorithmen offenlegen, sie sollten das transparent machen. Sie sollten vor allem auch so etwas wie die Rückkopplungsmechanismen einnorden, damit man solche positiven Selbstverstärkungsmechanismen frühzeitig identifiziert. Das Problem ist immer: Es handelt sich um Produkte der Privatindustrie. Und der eigentliche Kern des Geschäfts sind Algorithmen, die nicht öffentlich gemacht werden. Es ist wie bei Google, bei Amazon, bei all diesen Unternehmen – der eigentliche Wert dieser Unternehmen besteht in den Rechenverfahren, mit deren Hilfe die Datenmengen verarbeitet werden.
Bei Predictive Policing heißt es immer, was da genau in diesem Algorithmus passiert, das können wir nicht sagen, weil das unser Business ist. Und dann haben wir ein Problem. In dem Moment, wo wir eine staatliche Intervention haben, die nicht auf einer gesetzlichen Grundlage basiert, sondern gleichzeitig auf einem kommerziellen System, dann haben wir ein Problem. Und dies ist ein Konflikt, den man thematisieren sollte und den man auch angehen sollte.
Im US-amerikanischen Bereich ist es noch extremer, dort können vor Gericht Risk-Assessment-Tools herangezogen werden. Die machen Aussagen darüber, mit welcher Wahrscheinlichkeit eine Person X, die diese und jene Merkmale hat, in Zukunft rückfällig werden wird. Da wird also ein Element in den rechtlichen Entscheidungsprozess eingeführt, was letztendlich nicht rechtlich kontrollierbar ist. Dieses Problem haben sie auch in abgeschwächter Form bei Predictive Policing.

Und wer muss dafür sorgen, dass diese Algorithmen offengelegt werden? Muss sich da die Gesellschaft drum kümmern, oder muss das der Gesetzgeber machen?

Es müsste einfach das Bundesamt für Sicherheit in der Informationstechnik die Möglichkeit haben, solche Algorithmen auf ihre rechtsstaatliche Unbedenklichkeit zu kontrollieren – was momentan nicht der Fall ist. Im Moment wird damit hausieren gegangen, dass durch Predictive Policing die Crime Rates reduziert werden. Aber wie das geschieht, was die Nebeneffekte sind und was dabei eben nicht gesehen wird, ist eine andere Frage. Es ist das alte Argument in der Kriminologie. In dem Moment, in dem ich auf alle Jugendlichen, Unterschichten und ethnischen Minderheitsleute meine Kontrollenergie verwende, sehe ich die ganzen anderen nicht. Der gesellschaftliche Schaden, der zum Beispiel durch schlechte medizinische Versorgung oder White Collar Crime oder Betrug in allen möglichen ökonomischen Bereichen angerichtet wird, dem wird nicht so viel Aufmerksamkeit geschenkt. Sie werden kaum aufgrund eines Algorithmus plötzlich eine Razzia bei der Zentrale der Deutschen Bank machen oder bei den Krankenkassen oder bei der Bundesärztekammer, wo man durchaus auch mal hinschauen kann. Das Ganze wird angewendet auf das klassische Unterschichts-Bread-and-Butter-Crime, wie es so schön heißt.

Herr Kreissl, vielen Dank für das Gespräch.

Und das sind die Autorinnen

Luisa Heß: Von Praktika bei Lokalzeitungen über eine Hospitanz beim ZDF bis hin zum 
Volontariat bei der Nachrichtenagentur epd: Es hat viele Stationen gebraucht bis ich 
erkannt habe, dass es die tiefgründigen und persönlichen Geschichten sind, die mich
wirklich interessieren. Trotz meines Jahrgangs 1993 fühle ich mich mit Stift und 
Block  in der Hand immer noch am wohlsten. Ein Abstecher in den Online-Journalismus 
während des Volos hat mir umgekehrt aber auch gezeigt, wie faszinierend dieses 
Medium sein kann.


Valerie Krall: Mit dem Ziel, irgendwann mal die Sportschau zu moderieren, bin ich 
2013 aus Hamburg nach Dortmund gezogen, um Journalistik zu studieren. Vier Jahre 
später und mit einem Volontariat beim Hessischen Rundfunk im Rücken, weiß ich, 
dass ich gar nicht unbedingt ins Fernsehen möchte, sondern vor allem Geschichten 
erzählen will. Am liebsten, wenn es um Gesellschaft und Politik geht; der Sport
 bleibt mein großes privates Interesse.