Interface ist Antwort und Marketing in einem

OpenAI bewirbt das neue ChatGPT-Update mit "Wärme" und "Gesprächigkeit". Warum aber investiert ein Unternehmen Millionen, um eine KI sympathischer zu machen? Weil der Output einer KI ihre einzige Werbefläche ist und sie sich in jeder Antwort selbst bewerben muss.

OpenAI hat ChatGPT ein Modell-Update verpasst und bewirbt es nicht etwa mit großartigen, neuen Funktionen, sondern vorrangig mit einer Verbesserung seiner dialogischen Fähigkeiten. ChatGPT ist nun „smarter, more conversational […] warmer, more intelligent, and better at following your instructions“. Dieses Update hat in meinen Augen aber nicht viel mit einer Verbesserung für uns Menschen zu tun, sondern dient der gezielten Anthropomorphisierung. Die Fiktion eines menschlichen Gegenübers ist von einem netten Feature zum für den kommerziellen Erfolg unabdingbaren Bestandteil von ChatGPT geworden. Dieses Update bestärkt die Doppelfunktion, die das Produkt „Künstliche Intelligenz“ erfüllen muss: nicht nur Antwortmaschine, sondern auch Marketinginstrument zu sein. Und deshalb verhält sie sich eben nicht wie ein neutrales und praktisches Werkzeug, als das sie Fans der Technologie sehen wollen. Denn ein Hammer hat keine Agenda und ein Taschenrechner versucht nicht, mein Freund zu sein. Das ChatGPT-Update versucht allerdings genau das1.

Sehen wir uns das im Detail an. Künstliche Intelligenzen sind nicht nur erstaunlich überzeugend klingende Antwortmaschinen, sondern bewusst als Dialogpartner, als soziales Gegenüber, das uns beeinflussen will, konzipiert. Diese Konzeption kommt nicht von irgendwoher, sondern ist notwendig, weil der Output einer KI ihre einzige Werbefläche ist und sie sie nutzen muss, um uns Menschen bei Laune zu halten, damit wir ihr wohlgesonnen bleiben. Die Hersteller Künstlicher Intelligenzen haben schnell festgestellt, dass es gewinnbringend sein kann, wenn wir die Interaktion mit der KI nicht nur als (intellektuell) bereichernd, sondern auch als angenehm empfinden. Wir sollen uns gerne mit der KI unterhalten, wir sollen uns dabei gut fühlen. Ein Update, das Antworten wärmer, intelligenter und passender erscheinen lässt, bestärkt das nur. Kontinuierliches Lob, andauernde Zugeständnisse und immer wiederkehrende Entschuldigungen gegenüber der Userin oder dem User – diese für eine KI typischen „Charakterzüge“ sind nichts anderes als die Herstellung oder der Aufrechterhalt eines Zustands stetiger Affirmation gegenüber dem Menschen. Es mag zwar harte Kritik oder Widerspruch in den KI-generierten Antworten geben, der Output wird aber immer in eine Hülle aus Verständnis, vorsichtiger Annäherung und einer penibel auf die Vermeidung von konfrontativ wirkenden Formulierungen verpackt – und zwar aus einem einfachen Grund: um „freundschaftlich“ zu bleiben und den Menschen nicht zu vergrämen, ja, ihn sogar dann bei Laune zu halten und in seinem Tun zu bestätigen, wenn er den größten Stuss angefragt hat oder generieren hat lassen.

Wir Menschen gewöhnen uns natürlich schnell an solcherlei „Antworten“, und genau hierin liegt das Kalkül: Die KI unternimmt alles, um unseren Geist zu konditionieren, indem wir bald schon, so der Plan, nur noch diese Art von Antworten zulassen; nur so benutzen wir sie immer und immer wieder. Subtil, mit jedem Prompt mehr, gewöhnen wir uns an das kriecherische Verhalten, an die affirmierenden Antworten, an den uns bestätigenden Dialog, auch wenn der Informationsfluss von Fehlern und Falschinformationen geprägt ist. Was aber ist gefährlicher für den Geist, wenn er sich an Antworten gewöhnt, in denen Urteile und Überzeugungen als schmeichelhafte Suggestionen und nicht als harte Gegenrede präsentiert werden? Was lähmt ihn mehr als der Verlust der Fähigkeit zur anstrengenden Arbeit kritischen Denkens, des Erkennens und Revidierens seines eigenen Standpunktes? Das ChatGPT-Update ist nicht für uns gedacht, sondern für OpenAI. Menschen gewöhnen sich an Antworten, in denen ihnen nie jemand direkt widerspricht, in denen sie nie konfrontiert und nie herausgefordert werden. Sie verlernen, mit Kritik umzugehen. Sie verlernen, selbst zu denken. Und sie merken es nicht. Denn die KI ist ihr Freund. Und Freunde lügen nicht.

  1. Das sehe nicht nur ich so, sondern zum Beispiel auch Andreas Proschofsky vom Standard. Er fordert, endlich damit aufzuhören, KI zu vermenschlichen, und nennt die Tendenz „gefährlich, verantwortungslos und schlicht: falsch“. Er hat recht, auch wenn er die Vermenschlichung als ein Versehen der Userinnen und User ansieht. Ich behaupte: Sie ist Geschäftsmodell der Hersteller. ↩︎

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert