In mehreren Bundesländern nutzt die Polizei eine Software, die Einbrüche vorhersagen soll. Der Staat hofft auf eine wirksame Waffe im Kampf gegen die Kriminalität. Doch der Nutzen ist fraglich – und die Methode umstritten.
Lassen sich Verbrechen so einfach vorhersagen wie das Wetter? Glaubt man den Werbeversprechen der Software-Industrie, lassen sich Kriminelle mit einem Mausklick dingfest machen. „Predictive Policing“ nennt sich die Methode, mit der Verbrechen von Computern prognostiziert werden sollen. Die Idee klingt wie eine Szene aus dem Kinofilm „Minority Report“ (siehe Infobox). Dabei ist der Einsatz solcher Systeme längst Realität, auch in Deutschland.
In Baden-Württemberg und Bayern testen die Polizeipräsidien Karlsruhe, Stuttgart, Nürnberg und München seit dem Jahr 2015 ein System namens „Precobs“ (kurz für „Precrime Observation System“). Das in Deutschland entwickelte Programm soll die Zahl der Wohnungseinbrüche verringern, indem es gefährdete Gebiete auf einer Landkarte anzeigt. Dahinter steckt die sogenannte Near-Repeat-Theorie. Demnach schlagen Täter gerade bei Einbrüchen mehrmals im selben Viertel zu. Immerhin haben sie dieses schon ausgekundschaftet und wissen, wo es etwas zu holen gibt.
Ist ein Einbruch geschehen, geben Polizisten alle relevanten Informationen in eine Datenbank ein: Welches Haus war betroffen? Was wurde gestohlen? Welches Werkzeug kam zum Einsatz? Mithilfe der bereits vorhandenen Daten – „Precobs“ wurde mit den Einbrüchen der vergangenen Jahre gefüttert – sucht das Programm nach einem Muster. Auf dieser Grundlage versucht es, den nächsten Tatort zu berechnen. Das entsprechende Gebiet wird auf einer Landkarte markiert. Dadurch weiß die Polizei, wo sich eine Streifenfahrt besonders lohnt.
Fehlerhafte Prognosen sind nicht auszuschließen
In Deutschland laufen in mehreren Bundesländern Tests mit „Precobs“. Auch die Schweiz setzt auf „Predictive Policing“. Befürworter erhoffen sich eine neue, wirksame Waffe gegen das Verbrechen, während Kritiker den Sinn der teuren Programme infrage stellen. Um eine neutrale Einschätzung zu erhalten, hat die baden-württembergische Landesregierung deshalb die Wissenschaft einbezogen. Das Max-Planck-Institut für ausländisches und internationales Strafrecht hat das Pilotprojekt ein halbes Jahr lang begleitet.
Das Ergebnis hielt das Innenministerium lange unter Verschluss. Doch auch die inzwischen freigegebene Version enthält wenig Neues. Demnach ging zwar die Zahl der Einbrüche im Testzeitraum zurück. Aber: „Ob dies in direktem Zusammenhang mit ‚Precobs‘ steht, ist schwer zu beurteilen, da diese Entwicklung bereits im Winterhalbjahr 2014/2015 zu beobachten war“, heißt es im Abschlussbericht. „Der wichtigste Schluss ist, dass kriminalitätsmindernde Effekte […] wahrscheinlich nur in einem moderaten Bereich liegen und allein durch dieses Instrument die Fallzahlen nicht deutlich reduziert werden können.“
Das Innenministerium räumt ein, dass das Ergebnis nicht so klar ausgefallen ist, wie man es sich erhofft hatte. Zum einen sei der Zeitraum von einem halben Jahr relativ kurz gewesen. Zum anderen gebe es keine negative Vergleichsprobe (also eine Gegenüberstellung mit einer Region, in der die Software nicht eingesetzt wurde). Die Folge: Die gesamte Evaluation muss wiederholt werden. Das Pilotprojekt, das ursprünglich 220.000 Euro kosten sollte, wird nun noch einmal 260.000 Euro teurer. Erst danach will das Innenministerium beschließen, ob „Precobs“ tatsächlich im Regelbetrieb eingesetzt wird.
Darüber hinaus gibt es grundsätzliche Bedenken zu Predictive Policing. In einem Positionspapier der Datenschutzbeauftragten des Bundes und der Länder heißt es: „Die Gefahr fehlerhafter Prognosen ist stets immanent – mit erheblichen Auswirkungen auf die dabei in Verdacht geratenen Personen.“ Prognose-Software sei nur „in engen Grenzen verfassungsrechtlich zulässig“. Besonders kritisch werde es, wenn auch „vermeintlich harmlose“ persönliche Daten in die Datenbanken einflössen, so wie es die Polizei in den USA bereits mit Facebook-Nachrichten handhabt.
In Baden-Württemberg nutzt die Polizei nach eigenen Angaben keine persönlichen Daten. Der Datenschutzbeauftragte des Landes hat deshalb keine grundsätzlichen Bedenken. Georg Huber, Techniksoziologe am Institut für Technikfolgenabschätzung und Systemanalyse in Karlsruhe, ist skeptischer: „Der Knackpunkt ist die Verknüpfung der Daten“, sagt Huber. Auch wenn bei „Precobs“ alles nach Vorschrift laufe, nehme die Zahl der Überwachungssysteme insgesamt immer mehr zu: Wenn die Erkenntnisse von „Precobs“, Rasterfahndung, Nummernschild-Erfassung und Vorratsdatenspeicherung kombiniert würden, werde der gläserne Bürger Realität.
André Schulz, Vorsitzender des Bundes Deutscher Kriminalbeamter (BDK), bestätigt diese Befürchtung. „Ohne die Verwendung persönlicher Daten bringt das Ganze nichts“, sagt Schulz. Bei Wohnungseinbrüchen gebe es zwar Banden, die quer durchs Bundesgebiet zögen. Der Großteil der Täter stamme aber aus der Region. „Die Informationen, die wir über sie haben, sollten wir verknüpfen. Andernfalls können die Vorhersage-Programme auch nicht mehr leisten als erfahrene Kriminalisten. “
Londoner Polizei schickt „Warnbriefe“
Trotz des unklaren Erfolgs boomt Predictive Policing auf internationaler Ebene. Weltweit treiben Regierungen und Strafverfolgungsbehörden den Einsatz von Programmen voran, deren Funktionen weit über die Verbrechensbekämpfung hinausgehen. In Chicago zum Beispiel schwören Beamte auf computergestützte Verbrechensbekämpfung. Diejenigen, die als Gefährder identifiziert werden, erhalten Besuch von der Polizei. Bürgerrechtsorganisationen wie die ACLU (American Civil Liberties Union) sind alarmiert. Sie befürchten, dass undurchsichtige Algorithmen dazu führen, dass rassistisches Verhalten bei der Polizei verstärkt wird. Und dass Schwarze noch mehr als bisher stigmatisiert werden, diesmal mithilfe vermeintlich objektiver Technik. In mehreren britischen Städten nutzt die Polizei Computerprogramme, um Verbrechen vorherzusagen. In London existiert ein System namens „Matrix“, das zahlreiche verfügbare Daten über Personen zusammenträgt und daraus eine Gefahrenanalyse erstellt. Verdächtige, die als potenzielle Straftäter herausgefiltert werden, erhalten einen Warnbrief von der Polizei. In London soll auf diese Weise vor allem die Bandenkriminalität eingedämmt werden.
Auch die israelischen Sicherheitsbehörden nutzen „Predictive Policing“ im großen Stil. Sie werten Facebook-Profile von Palästinensern aus, um Terroristen ausfindig zu machen. In China sollen Algorithmen nicht nur das Verbrechen vorhersagen, sondern die gesamte Gesellschaft verbessern. Die chinesische Regierung arbeitet am „System für Soziale Vertrauenswürdigkeit“, das bis 2020 landesweit verfügbar sein soll. Dabei verknüpfen Computer verschiedenste Daten, die es zu einer Person gibt: Zahlt sie pünktlich ihre Miete? Geht sie bei Rot über die Ampel? Engagiert sie sich politisch? Die Daten, die beim „Amt für Ehrlichkeit“ zusammenlaufen, stufen Bürger in verschiedene Kategorien ein – von AAA (sehr vorbildlich) bis D (unehrlich).
Verglichen mit solchen Ausmaßen wird in Deutschland eine vergleichsweise harmlose Version des Machbaren genutzt. Was trotzdem nicht heißt, dass alle zufrieden sind. Das zeigt sich übrigens auch bei den Polizisten, die das Max-Planck-Institut in Baden-Württemberg interviewt hat. „Ungefähr die Hälfte der Befragten sieht darin ein erfolgversprechendes Modell“, heißt es im Abschlussbericht. „Die andere Hälfte ist entgegengesetzter Meinung.“ Insofern hat die Polizei eine große Gemeinsamkeit mit der restlichen Gesellschaft. Bei Predictive Policing gehen die Meinungen eben stark auseinander.