Tom Hillenbrand ist preisgekrönter Science-Fiction-Autor. Für ihn verschwimmen die Grenzen zwischen Mensch und Maschine immer mehr. Skepsis sei angebracht, aber ein Grund für Existenzangst sei diese Entwicklung nicht.
Herr Hillenbrand, in Ihrem Science-Fiction-Roman „Hologrammatica" sucht eine Art moderner Privatdetektiv eine verschwundene Person – nicht so einfach in einem fiktiven Zeitalter von KI, Quantencomputern, Klonen und Hologrammen. Wie sind Sie auf diese Idee gekommen?
Nun, Künstliche Intelligenz ist derzeit in aller Munde. Was das Hologramm-Thema angeht: Ich bin nun nicht mehr der Jüngste, habe aber beobachtet, was Menschen auf Instagram oder Tiktok so treiben – es gibt dort keine „ungeschminkte" Realität mehr. Jedes mediale Bild, das wir sehen, ist wahrscheinlich nachbearbeitet. Und ich dachte, man könnte dieses Motiv mit den Mitteln des Romans auf die Spitze treiben.
Löst sich die Menschheit also in der Technologie auf?
Auf jeden Fall. Bei KI und Robotern muss man sich fragen: Schaffen wir uns ab? Es wird nicht so sein, dass die nächste Roboterrevolution uns umbringt. Aber wir werden mehr und mehr mit der Technologie verschmelzen. Man kann dann nicht mehr genau sagen, wo die Grenze zwischen Mensch und Maschine liegt. Schon das heutige Smartphone ist eine Gehirnprothese. Bei vielen Entscheidungen, die man trifft, sollte man sich fragen, wie groß der eigene Anteil an der Entscheidung war – oder wie viel der Algorithmus zur Entscheidungsfindung beigetragen hat.
Fitnessuhren beispielsweise erfreuen sich ja großer Beliebtheit. Mit deren Hilfe stellen wir fest, wie es uns geht, und fragen uns das nicht mehr selbst. Ist dies Ihre Beobachtung?
Ja. Die Fitnessuhr ist derzeit noch, sagen wir mal, ziemlich doof. Es wird nur noch ein paar Jahre dauern, bis die Stimme aus der Cloud sagt: „Es ist zwar Weihnachten, aber heute hast du ziemlich viele Kohlenhydrate gegessen … Deine Blutfettwerte sind gerade nicht optimal." Dass diese technologischen Helfer Einfluss auf uns nehmen, muss nicht zwangsläufig schlecht sein. Vielleicht leben wir ja mit ihrer Hilfe auch länger. Dass wir in uns ein einziges Selbst tragen, auf dessen Grundlage wir unsere Entscheidung treffen, ist ja laut Kognitionswissenschaftlern schon heute Fiktion. Aber wir geben immer mehr Teile unserer Entscheidungen an die Technologie ab. Die Fitnessuhr sagt uns, dass wir unsere 10.000 Schritte heute noch nicht erreicht haben, also bleiben wir in Bewegung, statt uns hinzusetzen. Google Maps hinterfragen wir nicht mehr. Wenn die App uns eine Stau-Umleitung anzeigt – wir folgen ihr. Dabei trifft der Computer wiederum Entscheidungen für uns: Schickt er alle Autofahrer auf eine Umleitungsstraße, herrscht dort wieder Stau. Hat er drei oder vier Ausweichvarianten, sind diese wahrscheinlich unterschiedlich lang. Vielleicht schickt er Sie auf die nur zweitbeste Umleitung und jemand anderen auf die erste, die beste Umleitung. Das Beispiel mag trivial erscheinen, ich glaube aber, das Abnehmen von Entscheidungen durch Technologie wird noch viel ausgeprägter werden.
Im Moment geben wir aber diese Entscheidungen freiwillig ab. Ist dies ein Indiz dafür, dass das Aufgeben unserer Entscheidungshoheit unseren Bedürfnissen entspricht? Sonst würden wir das ja nicht machen.
Ich würde sagen, die Menschen, die das ohne Hinterfragen tun, sind bequem und entscheidungsschwach. Entscheidungen sind ja häufig unangenehm. Aber ich warne davor: Wir sind wie der Frosch im Wasser, dessen Temperatur langsam erhöht wird. Kocht das Wasser, springt er nicht heraus, sondern stirbt, weil der Temperaturanstieg zu langsam war und er es nicht gemerkt hat. Hier ist es so ähnlich: Wir werden in Zukunft den Algorithmus oder eine KI fragen können, was von unserer Entscheidung zu halten ist. Wenn Sie nicht mehr Redakteur, sondern Winzer sein wollen, hätten Sie es früher einfach mal ausprobiert. Bald schon könnten Sie den Computer fragen, wie hoch Ihre Erfolgschancen als Winzer sind. Sagt er Ihnen „sieben Prozent", überlegen Sie sicher zweimal, ob Sie Ihren derzeitigen Job aufgeben. Das legt uns natürlich extrem in der Vergangenheit und der Gegenwart fest und bringt uns möglicherweise um neue Erfahrungen. Denn diese Information des Computers wird bestimmt von allen Daten, die er über uns hat – aber dies sind in der Regel alte Daten. Denn die Algorithmen funktionieren derzeit nur über Auswertung alter Daten, aus denen Wahrscheinlichkeiten für die Zukunft projiziert werden.
Das heißt, wir reduzieren uns nur auf die rein physische Welt?
Auf die physische Welt, beziehungsweise auf die Welt, wie sie mal war. Es gibt von Apple und Goldman-Sachs eine Kreditkarte, die nun für Aufregung gesorgt hat. Männer erhalten dort höhere Kreditlimits als Frauen, auch bei höherem Einkommen der Frauen. Warum? Wenn man sich historische Daten anschaut, haben sie in der Vergangenheit im Schnitt immer weniger verdient als Männer. Also sind sie auch weniger kreditwürdig. Das ist die Logik der alten Daten. Auch auf der Suche nach einer Beziehung verlassen wir uns mehr und mehr auf das, was uns Maschinen raten. Sie werden bald den Computer fragen können, ob Sie einen Heiratsantrag machen sollen oder nicht, und er wird antworten: „Kannst du machen, aber das Scheidungsrisiko binnen drei Jahren beträgt 70 Prozent."
Sie glauben, der Algorithmus wird uns irgendwann besser kennen als wir uns selbst?
Auf jeden Fall. Das bedeutet zweierlei: Erstens werden wir uns künftig immer stärker auf ihn verlassen. Zweitens werden wir manipulierbar sein auf eine Weise, die wir uns noch nicht vorstellen können. Was in den vergangenen Jahren auf Facebook geschehen ist, ist ein Vorgeschmack. Menschen halten sich für sehr tiefgründig und komplex, doch per Algorithmus war feststellbar, auf welche psychologischen Knöpfe man drücken muss, damit sie sich für den Brexit oder einen US-Präsidenten entscheiden. Das wird sich verstärken, wenn Kameras jegliche Emotion aus unseren Gesichtern herauslesen können – und wenn es nur dazu führt, dass der Algorithmus ein Musikstück vorschlägt, dass Sie im Moment des Stresses gut gebrauchen können.
Dies sind Thesen, die wir auch in den Texten des Historikers Yuval Noah Harari finden. Dieser spricht von Selbstoptimierung und der Verschmelzung von Digital- und Gentechnologie.
Harari sagt, dass es das Ende von Demokratie und Liberalismus bedeutet, wenn wir uns mehr und mehr von Maschinen steuern lassen. Denn der Liberalismus fußt auf den Entscheidungen des Individuums. Fühle ich mich gut dabei oder nicht? Der Referenzpunkt ist das Ich, das sich durch die Abhängigkeit von Maschinen auflöst. Es kann aber genauso gut sein, dass dies zu etwas führt, was man etwas neudeutsch „Empowerment" nennt – sprich, dass die Maschine Menschen zu Dingen führt, die sie sonst nicht hätten erreichen oder schaffen können; Menschen, die Schwierigkeiten mit der Komplexität des Lebens haben, macht es vielleicht freier. Es heißt immer, Computer würden uns bevormunden, aber ebenso stark war bisher immer die Bevormundung durch den Staat oder Arbeitgeber. Vielleicht kann man dieser somit etwas entrinnen.
In „Hologrammatica" ziehen sich Menschen in extreme Privatsphäre zurück und entlassen Klone und Hologramme als Avatare in die Öffentlichkeit. Marc Zuckerberg propagiert dagegen heute gerne, dass Facebook die weitreichendste Freiheit, hier vor allem Meinungsfreiheit, schaffen will. Sehen Sie also hierin das wahre Problem?
(lacht) Mit einem KI-Assistenten kann ich mich vielleicht irgendwann auch verstecken, indem dieser alle meine peinlichen Äußerungen und Fotos im Netz löscht. Aber für Zuckerberg sind wir nur User, nicht Kunden. Sein Interesse ist ein anderes – er ist ein digitaler Vampir, der aus uns so viele Daten wie möglich herausholen möchte, um sie zu monetarisieren. Diese Tech-Typen aus dem Silicon Valley tun oft so, als hätten sie eine große humanistische Vision. Aber ich kenne keinen Großkonzern, der nicht möglichst viel Gewinn machen will, das ist bei Facebook nicht anders. Wir haben gesehen, dass zu Zeiten des US-Präsidentschaftswahlkampfes Abermillionen Amerikaner ein Quiz auf Facebook ausgefüllt haben, das nichts anderes zum Ziel hatte, als daraus ein psychologisches Profil des Wählers zu erstellen und ihn mit dessen Hilfe zu beeinflussen: KI hilft derzeit vor allem Menschen wie Zuckerberg, aber vielleicht erfindet ja mal jemand eine Künstliche Intelligenz, die uns hilft.
Das klingt, als seien wir längst nicht mehr unser eigener Herr.
Herr über unsere Daten sind wir schon lange nicht mehr, die sind futsch. Mit einer eigenen Währung wüsste Facebook endlich auch, was ich wann wo gekauft habe. Zuckerberg sagt zwar, er möchte den weniger entwickelten Ländern helfen, mir kommen da fast die Tränen … Nein, natürlich nicht, es geht wiederum um Daten. Wir sind weder Herr unserer Daten noch des öffentlichen Diskurses, der zunehmend auf diesen Plattformen stattfindet. Es gibt einen starken Kontrollverlust.
Sollten wir also die „Maschinen stürmen" wie damals die englischen Textilarbeiter im 18. Jahrhundert?
Ich glaube nicht. Die sinnvollste Gegenreaktion wäre regulativer Natur, dass wir also unsere Datenhoheit wiedererlangen. Es zeichnet sich jetzt ab, dass die Datenschutzrichtlinie der EU weltweit Schule machen könnte. Denn Facebook und Konsorten sind nur der Anfang. Ich hatte das in dem Roman „Drohnenland" angesprochen: Wenn die Maschine uns besser kennt als wir uns selbst, zerbröselt unser demokratisches System. „Die Gedanken sind frei", diese Prämisse gilt dann nicht mehr. Und dann sind wir wieder bei Harari.
Und die Algorithmen machen dann Wahlen unter sich aus.
Möglicherweise – im Silicon Valley sind sie von der Idee einer maschinengestützten Technokratie gar nicht weit entfernt. Es gibt den Gedanken der Singularität, einem Punkt in der technologischen Entwicklung, an dem die Maschinenintelligenz die des Menschen übersteigt. Fast eine religiöse Heilslehre.
Ihre Annahmen klingen allerdings reichlich pessimistisch. Teilen Sie auch die Angst vieler Fachkräfte und Angestellten, dass ihnen der Roboter den Arbeitsplatz wegnimmt?
Bisher war es immer so, dass mit dem Wegfall von nicht mehr gebrauchten Jobs neue Jobs entstanden sind. Es gibt in der Bank niemanden mehr, der Geld zählt, dafür gibt es mehr Anlageberater. Jobs verschieben sich. Wir haben mal davon geträumt, dass ein Ideal der griechischen Demokratie wiederkehrt: Der griechische Bürger hat nicht gearbeitet, sondern nachgedacht, Kunst geschaffen, musiziert. Gearbeitet haben für ihn die Sklaven, heute also vielleicht die Maschine. Wenn das das Ergebnis der technologischen Entwicklung ist, weiß ich nicht, ob wir uns beschweren können. Das Szenario ist ja nicht: Du wirst von der Maschine ersetzt und verhungerst. Sondern: Du wirst ersetzt und kannst zu Hause etwas anderes machen, Netflix gucken zum Beispiel. Die große Gefahr dabei ist: Wenn wir große Teile unseres Bruttoinlandsprodukts durch Maschinen produzieren, wer bekommt die entstehenden Gewinne? Nur die sechs bis sieben Firmen, die die Maschinen betreiben? Oder werden die Gewinne sozialisiert? Darauf gibt es noch keine Antwort. Wenn das Ergebnis wäre, dass wir durch Technologie mehr zu essen haben oder länger leben, wäre das nicht so schlecht.
Gleichzeitig aber wären wir bedeutungslos, denn die Maschine braucht uns vielleicht irgendwann nicht mehr, um zu funktionieren.
Ganz ehrlich, der ganze Planet braucht uns nicht. Uns brauchen nur die Menschen direkt um uns herum. Familie, Freunde. Denn sind wir noch von Bedeutung, wenn an der Entdeckung eines Medikamentes gegen Krebs zu mehr als 50 Prozent eine Maschine beteiligt ist? Ist uns das dann nicht egal?
Also – „keine Panik"?
Meine Panik erstreckt sich eher darauf, dass der Planet irgendwann kocht. Ich befürchte sogar, wir können diese Klimakatastrophe nur noch durch mehr Technologie verhindern. Die positive Wirkung sehen wir schon heute – ohne Technologie wäre Fridays for Future gar nicht denkbar.
Haben Sie denn Angst, dass eine KI bald spannende Bücher schreibt?
Nein. Aber auch nur, weil alle Betroffenen glauben, dass gerade ihr Job nicht ersetzt werden kann.