Der Traum von der heilen Welt

Predictive Policing Foto: Mario Sixtus / CC BY-NC-SA 2.0

Wäre es nicht gut, wenn man Terroranschläge und Vergewaltigungen, Morde, Überfälle und Diebstähle verhindern könnte, bevor sie passieren? Predictive Policing – die vorausschauende Polizeiarbeit – gehört mehr und mehr zum Alltag von Polizei und Kriminalistik. Die Grundlage dafür sind Daten.

Eines der ersten Predictive-Policing-Programme hieß Blue Crush, war eine Software auf Basis eines Prognose-Algorithmus von IBM und wurde 2005 unter anderem im Polizeidepartment von Memphis/Tennessee eingeführt. Crush steht für Crime Reduction Utilizing Statistical History, Kriminalitätsreduktion durch Auswertung vergangener Ereignisse und erstellt Karten von Verbrechensorten. „Wir nutzen die Daten, die wir über begangene Straftaten haben, um vorherzusagen, wo wir als nächstes hingehen müssen“, sagte Larry Godwin, damals Polizeichef der Stadt, stolz in die Kameras. Effekt der verstärkten Präsenz zur richtigen Zeit am richtigen Ort: „Wir sehen seither einen Rückgang der Kriminalität um 28 Prozent.“

Rund zehn Jahre später halten Tools, die der Analyse großer Datenmengen und letztlich der Vorhersage von Straftaten dienen sollen, auch in den deutschen Polizeialltag Einzug. Die Software Precobs etwa, die seit Ende 2014 vom Landeskriminalamt Bayern in München und Nürnberg eingesetzt wird. Das System des Oberhausener Instituts für musterbasierte Prognosetechnik greift auf Daten früherer Einbrüche zurück und erkennt so Risikogebiete. Kommt es zu einem neuen Einbruch, kann Precobs mit bis zu 70-prozentiger Wahrscheinlichkeit vorhersagen, ob es in einem Radius von 500 Metern um diesen Tatort herum innerhalb einer Woche zu einem weiteren Einbruch kommen wird. In Zürich, wo Precobs bereits getestet wurde, trafen gut 80 Prozent der Prognosen zu, die Einbrüche gingen um 14 Prozent zurück. Das Landeskriminalamt Baden-Württemberg gab Ende Oktober 2015 grünes Licht für den Einsatz von Precobs in Stuttgart und Karlsruhe – auch Nordrhein-Westfalen und Niedersachen, Berlin, Brandenburg und Hamburg zeigen großes Interesse an Precrime-Anwendungen.

Diese seien zunächst eine weitere Methode, um die „Komplexitäten kriminalitätsrelevanter Daten besser zu durchdringen“, so der Landeskriminaldirektor von Nordrhein-Westfalen Dieter Schürmann Anfang des Jahres auf dem Europäischen Polizeikongress. Ziel sei jedoch eine „hochmoderne Kriminalitätsanalyse“, um „den öffentlichen Raum in seiner kriminogenen Dynamik noch besser zu analysieren“. Daten – darunter Personen- und Telefondaten, Daten aus sozialen Netzwerken, über Haushaltsstrukturen, Bevölkerung, Kaufkraft, Freizeitverhalten und Ferienzeiten bis hin zu Wetter und Verkehr – sollen also nicht mehr nur ausgewertet werden, um zu sehen, in welchen Gegenden mehr Polizeipräsenz sinnvoll sein könnte und um zu verhindern, dass sich dort wiederholt, was schon geschehen ist. Sondern auch, um herauszufinden, mit welcher Wahrscheinlichkeit ein bestimmter Teil des öffentlichen Raumes – in dieser Logik ist das scheinbar der Ort, an dem in erster Linie Straftaten vorbereitet werden – überhaupt als künftiger Tatort infrage kommt. Und mit welcher Wahrscheinlichkeit eine Person oder eine Gruppe von Menschen in Zukunft eine kriminelle Handlung begehen könnte.

Was ist normal?

In den letzten Jahren wurde an einer ganzen Reihe verschiedener Sicherheitssysteme geforscht, unter anderem zur intelligenten Videoüberwachung. Die soll zum einen helfen, potenziell gefährliche Personen zu identifizieren, zum anderen in der Lage sein, Bedrohungssituationen im Moment ihrer Entstehung zu erfassen. „Ein Algorithmus beispielsweise soll in Echtzeit erkennen, dass eine Schlägerei passiert und dann ein Signal geben“, erklärt Jens Hälterlein von der Technischen Universität Berlin. Statt vieler Bilder aus vielen Kameras, die nach dem Zufallsprinzip an die Einsatzzentrale übermittelt werden, könnte ein Algorithmus relevante Ereignisse vordefinieren und diese Bilder aufschalten. „Man kann das noch weiter automatisieren, dass das System dann, wenn etwas detektiert wird, automatisch einen Einsatzbefehl mit einer konkreten Angabe von Ort und Ereignis an die Einsatzkräfte verschickt. Aber das ist rechtlich problematisch.“

Zu den ambitioniertesten Vorhaben hinsichtlich der Identifizierung von Menschen und potenziell gefährlichem Verhalten gehörten in den letzten Jahren die umstrittenen und mittlerweile abgeschlossenen Projekte Indect und Proactive, an denen auch die Universität der Bundeswehr in München beteiligt war. Unter anderem ging es dabei um die Entwicklung von Algorithmen, die Bilder von Überwachungskameras auswerten, um verdächtiges – sogenanntes abweichendes – Verhalten zu erkennen und vorherzusagen.

Abweichendes Verhalten definierten diese Projekte als Verhalten, das in Zusammenhang mit Straftaten vorkommt – oder das allgemein in Zusammenhang „mit einer Bedrohung“ steht, sagt Informatikerin Anna Biselli, die sich seit Jahren mit Algorithmen zur Erkennung und Vorhersage von Verhalten befasst. „Wenn man in der U-Bahnstation sitzt und die Bahnen sind schon dreimal vorbeigefahren, dann kann dieses System schon anschlagen und sagen, dass da jemand ist, der etwas im Sinn haben könnte. Weil dieses Verhalten eben nicht dem entspricht, was wir auf einem U-Bahnhof als normal bewerten würden. Oder wenn man hin- und herläuft oder zu schnell läuft. Im Zweifel kann jeder Jogger, der nicht die Route durch den Park nimmt, auf der üblicherweise gejoggt wird und wo es deshalb als nicht auffällig gilt, schon Ziel dieser Verbrechenserkennung werden.“

Den Systemen wird dabei durch Programmierer beigebracht, was als abweichend erkannt werden soll. Sie können auch mit Aufnahmen von normalen Situationen trainiert werden, mit Bildern, die Menschen zeigen, die sich so verhalten, wie sie es an bestimmten Orten zu bestimmten Zeiten üblicherweise tun. Auf diese Weise lernen die Programme selbst, was normales Verhalten in bestimmten Situationen ist – und erkennen, wann jemand davon abweicht. Das Problem: Zum einen wissen Sicherheitsbehörden durchaus, dass Analyse-Tools früher oder später auch der organisierten Kriminalität bekannt werden und diese ihre Vorgehensweise danach ausrichten kann. Das bedeutet, dass Kriminelle also entweder Verhaltensmuster und Tatorte suchen, die Algorithmen nicht als auffällig bewerten, oder dass sie die Systeme mit gefälschten Daten manipulieren. Zum anderen fließen in Vorhersage-Algorithmen immer auch Fehleinschätzungen und Vorurteile mit ein.

Weil aus datenschutzrechtlichen Gründen bei vielen EU-Projekten nicht mit Bildmaterial aus echten Überwachungskameras gearbeitet werden dürfe, so Jens Hälterlein von der TU Berlin, würden oft eigene Videos mit Bewegungsabläufen oder Situationen produziert, mit denen die Systeme trainiert werden können – mit Schauspielern, die beispielsweise eine Schlägerei simulieren. „Dann versucht man typische Bewegungsmuster herauszufiltern, von denen man annimmt, dass sie bei einer Schlägerei passieren. Die Frage ist nur: Sieht eine simulierte Schlägerei wirklich genauso aus wie eine echte? Man will ja Material erzeugen, anhand dessen ein Algorithmus verstehen lernt, wie etwas durchschnittlich aussieht. Aber eigentlich müsste man das ja schon vorher wissen, um überhaupt gültige und sinnvolle Szenarien zu erstellen. Es kommen also die spezifischen Vorstellungen der Leute, die so etwas simulieren, mit rein.“

Die Macht der Datenbanken

Auch Verfahren zur Gesichtserkennung, um Menschen auf Bildern und in Videos möglichst in Echtzeit anhand biometrischer Merkmale zu identifizieren, werden weiterentwickelt, unter anderem für die europäische Polizeiagentur Europol. „Das Prinzip ist relativ einfach“, erläutert Anna Biselli. „Wenn man eine Datenbank hat, etwa mit Personalausweisbildern, dann kennt man ja einzelne Gesichter. Diese Gesichter werden in Zahlen überführt. Man hat mathematische Merkmale wie die Breite der Wangenknochen oder den Abstand der Augen. Diese Werte werden dann mit Merkmalen verglichen, die man beispielsweise aus der Aufnahme einer Überwachungskamera extrahiert. Dann kann man schauen, was besonders ähnlich ist und so ermitteln, welches Gesicht das am wahrscheinlichsten ist.“ Unter optimierten Bedingungen können Personen auf diese Weise bereits mit einer Genauigkeit von bis zu 95 Prozent identifiziert werden.

Um die Systeme zu optimieren, arbeiten Sicherheitsbehörden seit Jahren an gigantischen Datenbanken: Etwa 16 Millionen Bilder von mindestens sieben Millionen Menschen soll das amerikanische FBI bereits in einer Datenbank gespeichert haben, die zum Next Generation Identification Project gehört. Schon seit 2009 wird im Rahmen des Projekts an Software gearbeitet, die diese Bilder mit Fotos und Material aus Überwachungskameras abgleicht.

Außer Gesichtsbildern werden weitere biometrische Informationen gespeichert: Iris-Scans, Fingerabdrücke, Sprachdaten, zudem Bilder von Tattoos, Narben oder anderen Körpermerkmalen einer Person. Zum europäischen Gegenstück könnte sich die Europäische Agentur für IT-Großsysteme Eu-Lisa entwickeln, unter deren Dach Informationssysteme der Polizei mehrerer europäischer Länder gemeinsam verwaltet werden, darunter die Europäische Fingerabdruckdatenbank Eurodac und das Schengener Informationssystem, Europas größte Fahndungsdatenbank. Dort werden Fotos, DNA-Proben und andere Daten über Personen gespeichert, die in Europa gesucht werden oder die – wie es heißt – „überwacht oder kontrolliert werden müssen, weil es mutmaßliche Gründe gibt, dass sie zukünftige Straftaten begehen könnten“.

Zwar betonte Dieter Schürmann vom LKA Nordrhein-Westfalen noch Anfang des Jahres, dass es „eine konkrete Vorhersage von Taten und Täter-identitäten nicht geben“ werde. Unter anderem, weil Datamining, also die Zusammenführung von Daten aus verschiedenen Quellen, um sie mit Analyseverfahren in Beziehung zu setzen und daraus Hinweise auf künftiges Verhalten einer Person abzuleiten, den Polizeibehörden in Deutschland nur in Einzelfällen erlaubt ist: bei einem konkreten Tatverdacht und nach einer richterlichen Genehmigung. Datenschützer befürchten jedoch, dass es nicht bei Einzelfällen bleiben wird. Technisch können die Systeme natürlich Daten aus allen Bereichen analysieren, aus denen Daten gesammelt werden können. Und die Auswertung von Metadaten aus Handykommunikation, Data- und Textmining ist ein expliziter Bestandteil von Forschungsprojekten wie Indect oder Proactive. Und: In ihrem Arbeitsprogramm 2015 kündigte die Europäische Polizeiagentur Europol bereits die Einführung einer ganzen Reihe neuer Analysesoftware zur „Datenverarbeitung, aufklärungsbasierten und strategischen Analyse und Analyse offener Quellen“ an.

Auch Schürmann räumte ein, dass die Kombination von polizeiinternen und externen Daten die Möglichkeit bietet, „neue Zusammenhänge im Kontext von Kriminalität zu entdecken und tatrelevante Muster zu entdecken“, gerade auch, wenn Daten einbezogen würden, die „bisher nicht kriminalitätsrelevant waren“. Aus der Auswertung von Telefon-Metadaten zum Beispiel, sagt Anna Biselli, ergibt sich ein ziemlich genaues Bild von den Lebensgewohnheiten einer Person. „Wenn ich bei der Drogenberatung anrufe, kann das anhand der Nummer erkannt werden. Wenn ich danach einen Arzt anrufe, ist wahrscheinlich, dass ich ein Drogenproblem habe.“ Per Funkzellenabfrage lässt sich ermitteln, wann und wie lange sich jemand an einem bestimmten Ort aufhält. Weiß man dazu, wo die Person arbeitet und wohnt, lässt sich nachvollziehen, wann sie auf ihrer Arbeitsstelle ist und wann zuhause, wie ihr üblicher Tagesablauf ist und ob sie davon abweicht. „So kann man Personenprofile erstellen, Abweichungen erkennen und aus diesem Wissen ableiten, wie sich die Personen wahrscheinlich verhalten werden.“

Maschinen mit Vorurteilen

Entdeckt ein Sicherheitssystem im Kommunikationsverhalten eines Menschen bestimmte Auffälligkeiten, dann können Telefongespräche, Mails, Blogs oder Tweets auch inhaltlich ausgewertet werden. Etwa, wenn die Datenanalyse ein Muster ergibt, das dem von Personen ähnelt, die als kriminell, ex-tremistisch oder terrorverdächtig gelten. „Wir haben uns zum Beispiel den Blog der Islambrüderschaft in Deutschland angeschaut und da findet man Verbindungen wie Allah und Krieg oder Bedeutung und Dschihad – Wortverbindungen, die in Sätzen der Bruderschaft statistisch signifikant vorkommen“, sagt Joachim Scharloth, Professor für angewandte Linguistik an der Technischen Universität Dresden. Er hat ein Programm entwickelt, mit dem Textinhalte analysiert werden können. „Wenn man diese Wortverbindungen in anderen Texten findet, dann kann man mit einer gewissen Wahrscheinlichkeit sagen: Dieser Text ist womöglich auch ein Text, der sich mit einer extremen Form des weltanschaulichen Islam identifizieren lässt.“

Innerhalb weniger Minuten lassen sich per computerlinguistischer Analyse Texte und deren Urheber einem bestimmten politischen Spektrum zuordnen. Das Programm erlaubt auch Aussagen darüber, wie radikal jemand seine Ansichten vertritt.

Zwar ist nicht bekannt, ob die Software der Sicherheitssysteme auf genau diese Weise arbeitet. Aber dass sich Bundeskriminalamt und Bundespolizei für Sicherheitssysteme interessieren, die Webseiten und soziale Medien auch inhaltlich auswerten sollen, ist kein Geheimnis. Das BKA etwa beobachtete Forschungen zum mittlerweile abgeschlossenen Projekt CAPER (Collaborative information acquisition, processing, exploitation and reporting for the prevention of organized crime), das Daten aus sozialen Netzwerken und von Webseiten so mit Polizeidatenbanken verknüpft, dass sogenannte Gefahrenabwehranlässe erkennbar werden. Es ist auch noch immer unklar, inwieweit der Einsatz von Systemen, die im Europol-Arbeitsprogramm „future-forecasting and scenario techniques“ genannt werden, in Deutschland rechtlich überhaupt möglich ist.

Aber auch wenn noch kein automatisiertes Profiling stattfindet und es für die Polizei in Deutschland noch nicht zum Alltag gehört, in Daten nach Mustern zu suchen und Wahrscheinlichkeiten für künftige Risiken abzuleiten: Es gibt bundesweit verbundene Datenbanken, die Datenmenge darin wächst, und es gibt Software, die hilft, sie auszuwerten, so die Soziologen Niklas Creemers und Daniel Guagnin von der Technischen Universität Berlin. „Sie erlaubt es, Personen, Räume, Ereignisse in Beziehung zu setzen, Querbeziehungen ausfindig zu machen und davon Thesen abzuleiten. Man kann Strukturen feststellen, die in ihrer Komplexität durch einen klassischen Ermittler kaum zu erfassen wären.“ Seien Zusammenhänge aber erstmal vorhanden, würden sie auch überprüft. „Und das ist spannend, weil sich dadurch etwas verändert. Selbst unverdächtige Dinge können einem verdächtig erscheinen, wenn man den richtigen Blick darauf wirft.“

Dieser Blick wird mehr und mehr von Algorithmen beeinflusst. Selbst dann, wenn ein Mensch das letzte Wort behält und die letzte Entscheidung zu verantworten hat. Er wird sie zunehmend aufgrund von Fakten getroffen haben, die ein Programm vor-ausgewählt hat und die als Ergebnis einer Datenanalyse ganz objektiv erscheinen. Aber, so Anna Biselli, „letztlich sind Algorithmen in Maschinencode gegossene Vorurteile, die wir schon haben.“ Polizisten sollten sich dessen bewusst sein. Wissenschaftler und Programmierer auch. Denn sie werden in Zukunft zum erweiterten Kreis der Ermittler gehören.

Lydia Heller

Lydia Heller

Lydia Heller ist Freie Autorin, Reporterin und Moderatorin, vor allem für Deutschlandradio Kultur, Deutschlandfunk und die Deutsche Welle. Seit 2008 schreibt sie – nicht nur, aber am liebsten – Radiofeatures über Umwelt, Technik und Forschung.

Foto: privat
Lydia Heller

Letzte Artikel von Lydia Heller (Alle anzeigen)