Es gibt einen Leitfaden für US-Polizisten im Umgang mit selbstfahrenden Autos
Es gibt Sachen, die gibt’s gar nicht! Beispielsweise, dass ein Verkehrspolizist von einem fahrerlosen Roboterauto die Wagenpapiere verlangt. So passiert im Frühjahr 2018 in Kalifornien. Ein Motorradpolizist hatte einen weißen Elektro-Chevrolet gestoppt, der mit überhöhter Geschwindigkeit auf einen Zebrastreifen zufuhr. Was der Polizist nicht wusste: Das Auto war selbstfahrend, auch wenn hinter dem Volant ein Testingenieur zur Überwachung saß. Dieser war verantwortlich und musste die Papiere vorzeigen, auch wenn das Auto selbsttätig gefahren war und autonom die Verkehrsübertretung verursacht hatte.
In der technischen Skalierung des Autonomiegrades von Roboterautos entsprach das dem Level vier. Im letzten Level fünf fährt ein Auto völlig selbstständig ohne Fahrer, völlig autonom also. Aber halten Roboterautos wirklich das Versprechen ihrer Erfinder aus der Computerindustrie, dass es im Zeitalter der autonomen Mobilität Verkehrsvergehen durch menschliches Versagen nicht mehr geben wird? Weniger Unfälle, keine Verkehrstoten mehr, weil der rollende Computer solche Fehler nicht macht?
Was geschieht, wenn Level fünf erreicht ist, das Auto tatsächlich ohne Fahrer autonom unterwegs ist und die Polizei das Auto anhalten und kontrollieren will? Wenn keiner mehr am Steuer sitzt, der Papiere zeigen und artig kritische Fragen beantworten kann?
Amerika wäre nicht Amerika, wenn es darauf keine Antwort gäbe. Waymo, eine Auto-Tochterfirma des IT-Riesen Google, hat 2018 einen Leitfaden zur Schulung von Polizisten im Umgang mit Roboterautos herausgegeben. Waymo verspricht zwar, dass die Software der Google-Autos Polizeiautos und Einsatzfahrzeuge von Feuerwehr und Rettungsdiensten von hinten kommend genau erkennen und entscheiden kann, ob man überholen lassen oder rechts ranfahren soll. Falls das jedoch nicht funktionieren sollte, empfiehlt Waymo der Polizei, das Roboterauto zu überholen und auszubremsen. Das Abstandsradar würde dann dafür sorgen, dass das Fahrzeug zum Stillstand kommt.
Im positiven Fall bleibt das Auto stehen, die Türen werden computergetreu entriegelt und das Fahrerfenster öffnet sich. Für die amerikanische Polizei insofern eine große Verkehrssicherheit, denn Gangster mit gezückter Waffe befinden sich nicht hinter dem Steuer, höchstens auf der Rückbank.
Hinter der Sonnenblende finden die Polizisten dann Zulassung und Versicherungspapiere, und dort findet sich auch die Telefonnummer einer Hotline, die die Polizei gratis mit einem Waymo-Mitarbeiter verbindet. Letzteres erlaubt auch ein Notfallknopf, den Rückbank-Passagiere im Notfall erreichen können, wenn sie mit einem leibhaftigen Menschen sprechen wollen.
Soweit zumindest die Theorie. Was aber passiert, wenn der Polizist zwar das Stopp-Manöver heil überstanden hat, danach die Algorithmen des Robotercomputers aber verrücktspielen und ihren Dienst an den Chips versagen? Der Rat von Waymo an die Polizei: die Wagentür öffnen, um das Auto am autonomen Weiterfahren zu hindern. Eine offene Tür blockiert den Autopiloten genauso wie ein ausgelöster Airbag. Nebenbei bemerkt: Airbags, die sich während der Fahrt selbst auslösen, wie sie vor einigen Jahren die japanische Herstellerfirma Takata in den Ruin trieben, sind in dem Leitfaden nicht vorgesehen.
Und sollte die Tür verschlossen bleiben? Dann empfiehlt Waymo eine Lösung à la Western-Raubein John Wayne: „Schlagen Sie ein Fenster ein."
Hilft alles nichts, hat Waymo eine – typisch amerikanische – Lösung parat. Im Leitfaden befindet sich nämlich eine Grafik, die die Hauptstromversorgung des Roboterautos aufzeigt. Und diese weist eine sehr auffällige gelbe Markierung auf, zu der es heißt: „Hier durchtrennen." Statt mit Pistole werden amerikanische Polizisten künftig also eher mit Seitenschneider ausgerüstet sein müssen. Wie sich die Polizisten gegen mögliche Hochvolt-Stromschläge schützen, verrät Waymo nicht. Vielleicht möchte man erst empirische Erfahrungen sammeln?