Experten sind überzeugt: Das selbstfahrende Auto wird so sicher kommen wie das Amen in der Kirche. Bis dahin sind neben technischen auch Fragen der Ethik zu klären.
Die Expertengruppe benannte sich kurzer Hand selbst um. Statt „Ethik-Kommission Autonomes und Vernetztes Fahren" gab sich das im Herbst 2016 vom Bundesverkehrsminister eingesetzte Gremium den Namen „Ethik-Kommission Automatisiertes und Vernetztes Fahren".
Denn schließlich beschreibt das die selbstfahrende Maschine wesentlich besser als der der Selbstbestimmung dem Menschen zugedachte Begriff der Autonomie. Das berichtete Kommissionsleiter Prof. Udo Di Fabio bei einer Diskussionsveranstaltung der Industrie- und Handelskammer des Saarlandes (IHK).
Von der Einparkhilfe bis hin zu Systemen, in dem das Auto etwa im Stop-and-go-Verkehr das lästige Anfahren und Bremsen übernimmt – die technische Entwicklung schreitet unaufhaltsam voran. Dabei sind auch zahlreiche ethische Probleme zu lösen.
Dafür hat die von Di Fabio geleitete Kommission vor knapp einem Jahr 20 Leitlinien vorgelegt. Die werden seither weltweit diskutiert, haben es inzwischen sogar bis zur Verkehrsministerkonferenz der G20 geschafft, in dem die wichtigsten Industrie- und Schwellenländer der Welt zusammengeschlossen sind.
Derzeit ist die Entwicklung zwischen Stufe 2 und 3 auf der fünfstufigen Skala der Automobil-Entwickler angekommen. Schon bald dürften große Serien-Autos etwa von VW, Audi, Mercedes und Co. zumindest in bestimmten Verkehrssituationen wie im Stau das Steuer selbst in die Hand nehmen; der Fahrer kann sich bequem zurücklehnen. In wenigen Jahren dürften solche Assistenzsysteme auch in kleinere Autos eingebaut werden.
Im Blick haben Entwickler und Ethiker vor allem Stufe 4 und 5. Beim vollautomatisierten Fahren muss der Mensch nur noch eingreifen, wenn das System ausfällt oder überfordert ist. Und in Level 5 bringt der fahrerlose Wagen seine Passagiere schließlich ohne deren Zutun selbständig ans Ziel.
Leitlinien für Roboter-Autos
Bis die Autos ganz ohne Fahrer auskommen, wird es noch ein paar Jahre dauern. Manche in der deutschen Autoindustrie planen ehrgeizig bis 2025. Di Fabio glaubt, dass es noch ein paar Jahre länger dauert.
Dabei stehen die deutschen Autobauer in Konkurrenz derzeit vor allem zu Herstellern in den USA. Dort wird eine ganz andere Philosophie verfolgt wie in Europa oder Japan. In den USA lautet die Devise: erstmal ein Produkt auf den Markt bringen, während in Europa zunächst einmal ausgiebig geprüft wird, ob die Systeme auch sicher sind, bevor sie eingeführt werden.
Zu Unfällen kommt es auf der anderen Seite des großen Teiches – vor allem in Staaten, die keine oder sehr laxe Zulassungsverfahren haben – immer wieder. Zuletzt sorgte ein Unfall für Aufsehen, bei dem ein Roboterwagen des Fahrdienstvermittlers Uber in der Stadt Tempe in Arizona eine Frau überrolle, die nachts ihr Fahrrad über die Straße schob. Offen ist, ob ein Mensch am Steuer den tödlichen Unfall hätte vermeiden können.
Für Deutschland sei so eine „Beta-Version, bei der man erstmal ein paar Wagen gegen die Wand knallen lässt" mit Sicherheit der falsche Weg, wie IHK-Hauptgeschäftsführer Heino Klingen unterstreicht. Und Di Fabio warnt davor, im Spannungsfeld zwischen Wettbewerb und individueller Freiheit die Werte von Hegel und Kant aufzugeben.
Keinesfalls dürfe der Staat den Menschen vorschreiben, sich generell in ein System selbstfahrender Fahrzeuge setzen zu müssen. Im autoritär geführten China, einem der vermutlich größten künftigen Konkurrenten, könne das kommen. Aber für Deutschland dürfe das niemals gelten.
„Der Mensch darf ein Risiko sein. Wenn wir alles vorschreiben, dann kommen wir in eine andere Welt. Die mag komplett sicher sein, sie wäre aber auch komplett unfrei", sagt Di Fabio. Anderseits dürfe Deutschland nicht noch einmal „den Weg gehen, den wir schon mal bei der Gentechnik gegangen sind" und sich der neuen Technik verschließen.
Die Herausforderung liegt darin, „Sicherheit, menschliche Würde, persönliche Entscheidungsfreiheit und Datenautonomie" in Einklang zu bringen. Nach Ansicht der Kommission ist das automatisierte Fahren ethisch geradezu geboten, wenn die Systeme weniger Unfälle verursachten als ein menschlicher Fahrer.
Konkret gilt es, die Zahl der tödlichen Unfälle – auf deutschen Straßen sind es derzeit rund 2.200 pro Jahr – „signifikant" zu reduzieren. Die Autoindustrie argumentiert, 90 Prozent der tödlichen Unfälle seien auf Fahrer-Fehler zurückzuführen.
Auch in einer schönen neuen Autowelt dürfte es zu unvermeidbaren Unfällen kommen. Für solche Fälle hat die Ethik-Kommission recht eindeutige Leitlinien aufgestellt. Der Schutz des menschlichen Lebens habe absolute Priorität vor Tier- und Sachschäden.
Hauptproblem wird der Datenschutz
Aber wie soll sich die Maschine entscheiden, wenn sie zwischen Verletzung oder gar Tod verschiedener Menschen wählen muss? Dabei dürfe es keine Kriterien nach Alter und Geschlecht geben, so dürfte ein Roboter-Auto nicht so programmiert werden, dass es im Notfall etwa einen Rentner statt eines Kindes überrollt.
Dagegen sehen die Experten es als durchaus legitim an, wenn bei einem solchen Unfallhergang ein Auto einen einzelnen Menschen verletzt oder sogar tötet, statt etwa in eine ganze Fußgänger-Gruppe zu rasen.
Die Haftungsfrage scheint aus rechtlicher Sicht derzeit eindeutig: Solange der Fahrer noch eingreifen kann (bis Stufe 4) muss entschieden werden, wer schuld an einem Unfall ist. Das könnte etwa durch eine Art Blackbox, wie sie bei Flugzeugen zum Einsatz kommt, geklärt werden. In Stufe 5 müsste der Hersteller oder Entwickler des Systems die alleinige Verantwortung übernehmen.
Beim Datenschutz sehen Verfassungsrechtler das Hauptproblem. Denn wenn er voll haften muss, benötige der Hersteller alle sicherheitsrelevanten Fahrzeugdaten, um seine Systeme auch perfektionieren zu können. Und solche Daten fallen beim vernetzten Fahren zuhauf an.
Nach heutigem Rechtsverständnis ist der Verbraucher Herr seiner eigenen Daten. Beim vernetzen Fahren müsste er einen Großteil seiner Datensouveränität abgeben. Dafür – so sieht es die Kommission – müsse der Gesetzgeber rechtzeitig klare Richtlinien schaffen. Ob die dann auch wirken?
Das Beispiel der heute durch Facebook, Google und Co. abgesaugten Datenmenge lässt fürchten, dass das in unserer digitalen Welt eine Illusion bleiben könnte. Jüngstes Beispiel ist der Missbrauch von Facebook-Daten durch die britische Firma Cambridge Analytica für den US-Präsidentschafts-Wahlkampf von Donald Trump.
Die Kommission sei da durchaus nicht „blauäugig", sagt Di Fabio. Auch das Problem, dass Wirtschaftsunternehmen die Daten für Werbung nutzen könnten oder Hacker die Fahrzeuge von außen manipulieren und Unfälle herbeiführen könnten, bleibe im Visier.