Darf Sprech-Analyse mit Künstlicher Intelligenz über Menschen entscheiden?
Nichts nervt mehr als ein Gegenüber, das jedes Wort, jede Mimik registriert, analysiert und kommentiert: „Du musst nicht nervös sein“, „Lach doch mal“. Ähnlich irritierend ist kumpelhaftes Anwanzen, wenn der Gesprächspartner in dieselbe Tonalität verfällt, wie derjenige, dem er „nach dem Mund redet“.
Unsere Persönlichkeit und unseren Gemütszustand wollen künftig nicht nur Hobbypsychologen unter die Lupe nehmen und zielorientiert kopieren. Die sogenannte Künstliche Intelligenz (KI), also lernende IT, die sich selbst fortschreibt, flirtet mit zwischenmenschlicher Kommunikation. Sie soll die DNA unserer ganz individuellen Art zu sprechen entschlüsseln.
So will die Technologie „Precire“ aus der gesprochenen und geschriebenen Sprache eines Menschen „valide psychologische Merkmale extrahieren“. Dafür reichen dem gleichnamigen Unternehmen 100 bis 150 Wörter. Den Aachenern geht es nicht darum, was wir sagen, sondern wie wir uns ausdrücken: Die Struktur unserer Sätze soll unsere Antriebe, unsere momentane psychische Verfassung verraten.
Besonders im Personalbereich könnte die verräterische Software eingesetzt werden. Sie soll den Personalchef beispielsweise darüber aufklären, wie belastbar der Bewerber oder der Angestellte ist. – „Hire and Fire“ im Schnellverfahren mit KI? Das Analyse-Tool codiert und decodiert geschriebene und gesprochene Sprache in gerade einmal zehn Minuten.
„Eine halbe Million Dimensionen haben sich ergeben“, berichtet Dr. Dirk Gratzel von der aufwendigen, wissenschaftsbasierten Entwicklung mit freiwilligen Versuchsmenschen. Gratzel ist Geschäftsführer und Mitgründer des 30-Mann-Unternehmens. Er glaubt an das Aussagevermögen der „messbaren Mehrwerte“. „Zur Erfassung des Charakters eines Menschen reicht seine Stimme“, sagt er.
Die KI-Anwendung erfasst unter anderem spezifische Textmuster, also Wortkombinationen, Wortfolgen und Satzstrukturen. Sie trainiert sich in Richtung „objektiver Vorhersagemodelle“.
Schnellerer und besserer Kundenservice sollen bei der Vermessung des Sprechens herausspringen. Digitale Assistenzsysteme könnten eine menschliche Komponente bekommen. Auch Navi, Siri, Alexa und andere smarte Helfer hätten bessere Chancen, den Angesprochenen auf seiner charakterspezifischen Wellenlänge zu erwischen. Ebenso das vernetzte Auto, wenn es an Ruhepausen erinnert. Sogar digitale Kunstwesen, „Chatbots“ genannt, würden Gestressten im Online-Kundenservice sensibler formulierte Fragen stellen. Doch ist es das wert?
Mehrere Millionen Euro hat „Precire“ in die Software-Entwicklung zum psychologischen Ausschlag der unflüchtigen Sprache investiert. Ausbeute sind Referenzdatensätze und Vorhersagemodelle, die beispielsweise auch helfen könnten, wenn es um digitale Technologien für die Gesundheit und deren persönlich ausgerichtete Warte geht. In Marketing-Aktionen und in der Kundenkommunikation dienen sie dazu, mit vertrauten Wortwendungen und Satzstrukturen ein gutes Bauchgefühl zu erzeugen.
Die Aachener sind nicht allein damit, natürliche Sprache mit KI zu erforschen und die Ergebnisse geschickt zu nutzen: „Facebook AI Research“ befasste sich im Herbst dieses Jahres mit sogenanntem Supervised Learning of Universal Sentence Representations from Natural Language Inference Data und machte ein Encoder-Tool dazu öffentlich.
Facebook arbeitet zudem am „Human-like Bot”, der noch weiter geht. Innerhalb eines Video-Chats, also eines Gesprächs mit einem digitalen Kunstwesen, soll die Atmosphäre durch „echte“ Interaktion vertrauensvoller und glaubwürdiger werden. Die Idee dahinter: Berücksichtigt die Künstliche Intelligenz ständig auch kleinste Veränderungen in der Mimik des menschlichen Gesprächspartners, kann sie daraus den Stimmungsverlauf der Konversation ableiten und angemessen reagieren. Ganz ohne ein deplatziertes „Lach doch mal“, aber mit viel Wissen über uns.