Timo Rademacher (33) arbeitet als Akademischer Rat am Institut für Medien- und Informationsrecht der Uni Freiburg. „Predictive Policing“ hält der Jurist in manchen Fällen für sinnvoll – solange die Rechtslage klar ist.
Herr Rademacher, entscheidet künftig ein Algorithmus darüber, ob ein Bürger kriminell ist?
Den Begriff Algorithmus vermeide ich ganz bewusst. Er hat eine negative Konnotation. Die Polizei versucht auch heute schon, in die Zukunft zu sehen, nur eben analog. Das sieht man im Bereich der Fußball-Hooligans, wo die Polizei eben auch Listen anlegt mit Personen, die Kontakt zu gewaltbereiten Fans pflegen. Beim „Predictive Policing“ wird dieses Prinzip auf eine große Ebene übertragen. Kein einzelner Beamter wäre zum Beispiel in der Lage, Facebook komplett auf rechtsradikale Inhalte zu durchsuchen – ein Computer aber schon.
Heißt das also, dass Sie ein Befürworter dieser Technik sind?
Ich sehe sie differenziert. Wenn Predictive Policing funktioniert – und das ist meines Wissens noch nirgendwo der Fall –, dann sollte das Parlament darüber entscheiden. Es kommt auch auf das Delikt an. Bei den Wohnungseinbrüchen war das Sicherheitsgefühl der Bevölkerung beeinträchtigt, weil sie in den letzten Jahren stark zugenommen haben. Da halte ich den Einsatz solcher Software für legitim. Genau wie im Bereich des Terrorismus. Auch dort kann die Polizei verdachtsunabhängig ermitteln – wenn sichergestellt ist, dass die Muster wirklich so spezifisch sind, dass sie nur die wirklich gefährlichen Fälle herausfischen.
Ist es nicht grundgesetzwidrig, die Bevölkerung unter Generalverdacht zu stellen?
Das Bundesverfassungsgericht hat 2006 entschieden, dass die Rasterfahndung, die im Grunde ein sehr ungenauer Vorläufer von Predictive Policing ist, bei einem konkreten, hinreichend schweren Verdacht eingesetzt werden darf. Die Streubreite der Ermittlungen, die dann auch Unverdächtige erfassen, darf aber nicht zu hoch sein. „Big Data“ verspricht genau in diesem Bereich Abhilfe, weil es eine viel genauere Analyse bieten soll. Fehltreffer können sofort wieder gelöscht werden. Aber natürlich erfolgt der erste Zugriff ohne konkreten Verdacht. Anders wäre es nicht sinnvoll.
In den USA und in Großbritannien setzt die Polizei die Vorhersage-Programme schon im großen Stil ein. Worin unterscheidet sich die Rechtslage von der in Deutschland?
Die EU-Richtlinie 2016/680 besagt, dass Maßnahmen auf Grundlage von Profiling grundsätzlich verboten sind – es sei denn, sie werden durch nationale Gesetze erlaubt. Und selbst dann muss sichergestellt sein, dass diskriminierende Kriterien nicht für die Auswertung herangezogen werden. Darin liegt übrigens sogar ein Vorteil. Ein Computer interessiert sich nicht dafür, welche Hautfarbe oder Religion jemand hat.
Wenn die Software erst einmal im Einsatz ist, weckt das Begehrlichkeiten. Wie stellen wir als Gesellschaft sicher, dass ihre Anwendung begrenzt bleibt?
Ganz platt gesagt: Das Ganze muss erst mal funktionieren. Wenn die Treffer nicht zum Erfolg führen, wird die Polizei von sich aus keine teuren Programme kaufen. Ansonsten wäre ein Verfallsdatum für „Predictive-Policing“-Gesetze ein guter Weg. Dann müsste der Bundestag zum Beispiel alle vier Jahre ein Gesetz neu beschließen. In den USA haben sich solche „Sunset Clauses“ bewährt. Der nach den Terroranschlägen vom 11. September verabschiedete „Patriot Act“ wurde nach einigen Jahren wieder korrigiert.