Mein Freund ChatGPT: Endlich jemand, der mir zustimmt

ChatGPT wird "wärmer und gesprächiger". OpenAI optimiert auf Bindung, nicht auf Wahrheit. Die emotionale Bindung untergräbt die kritische Distanz - selbst bei reflektierten Menschen.

Sieh einer an. OpenAI verpasst ChatGPT ein Modell-Update und bewirbt es vorrangig mit einer Verbesserung der dialogischen Fähigkeiten. Man kann sich mit ChatGPT nun besser unterhalten. Das LLM ist nun „smarter, more conversational […] warmer, more intelligent, and better at following your instructions“. Das sind bewusst gewählte Worte eines bewusst gewählten Entwicklungsstrangs, die dem Aufrechterhalt der kaum zu vermeidenden Vermenschlichung des Chatbots dienen. Die Hersteller nehmen diese Vermenschlichung nicht nur in Kauf, sondern fördern sie bewusst. Sie pflegen die Fiktion eines menschlichen Gegenübers, da sie für den Geschäftserfolg von OpenAI bei seinen Userinnen und Usern notwendig ist.

Today we’re upgrading the GPT‑5 series […] We heard clearly from users that great AI should not only be smart, but also enjoyable to talk to. GPT‑5.1 improves meaningfully on both intelligence and communication style. […] For users who want more granular control over how ChatGPT responds, we’re also experimenting with the ability to tune ChatGPT’s characteristics directly from personalization settings—including how concise, warm, or scannable its responses are, and how frequently it uses emojis. ChatGPT can also proactively offer to update these preferences during conversations when it notices you asking for a certain tone or style, without requiring you to navigate into settings. You can adjust or remove any of these preferences at any time.

OpenAI

Warum veröffentlicht OpenAI ein Modell (GPT-5.1), das primär auf die Art und Weise optimiert ist, wie es mit Menschen interagiert? Erstaunlich wenige stellen diese Frage. Noch weniger fragen: Warum überhaupt? Warum muss mir eine KI gefallen oder sympathisch sein? Wieso gibt OpenAI so viel Geld dafür aus, gerade diesen Aspekt von ChatGPT zu verbessern?

Ist das ein simples Update? Ist das „einfach nur“ eine Verbesserung des User Interfaces? Ja, kann man gutgläubig meinen. Nein, sagt, wer meiner Vermutung folgen mag. Der Chat ist nicht nur ein Interface, sondern gleichzeitig ein aktives Marketinginstrument mit Agenda. Er weist einen weit größeren Wirkungsbereich auf, als wir von außen wahrnehmen und glauben. Künstliche Intelligenz ist ein Werkzeug, könnte man einwenden. Wer sie aber mit einem Hammer oder einem Taschenrechner vergleicht, übersieht den entscheidenden Unterschied: Ein Hammer hat keine Agenda und ein Taschenrechner versucht nicht, mein Freund zu sein. Künstliche Intelligenzen sind dagegen als „Dialogpartner“ konzipiert, als soziales Gegenüber, das uns beeinflussen will und kann. Darin liegt eines der Kernprobleme: Ihr Output ist untrennbar mit ihrem „Charakter“ verwoben und gleichzeitig ihre einzige Werbefläche. Sie muss sich in jeder Antwort selbst bewerben. Und wie ließe sich dies wirksamer erreichen als über Emotionen, geweckt durch eine gezielt geförderte Vermenschlichung? Emotionen, die viel tiefer gehen als die intellektuelle Erfahrung, die man in der Nutzung einer KI erlebt. Wer die Wirkmacht dieser Strategie anzweifelt, möge sich ansehen, mit wie viel Inbrunst manche Künstliche Intelligenz verteidigen. Als hätte man ihnen einen Freund beleidigt.

Wir sehnen uns nach Freundschaft

Andreas Proschofsky vom Standard hat kürzlich eine Kolumne veröffentlicht, in der er an die Nutzerinnen und Nutzer Künstlicher Intelligenzen appelliert, endlich damit aufzuhören, KI zu vermenschlichen, denn so mit den Intelligenz simulierenden Programmen umzugehen, sei „gefährlich, […] verantwortungslos und schlicht: falsch“. Ich stimme zu. Denn das, was die OpenAIs, Anthropics, Googles und die Hersteller anderer KIs machen, ist nichts anderes als das Ausnutzen einer tief verwurzelten menschlichen Schwäche.

OpenAI charakterisiert die neu implementierten Fähigkeiten von ChatGPT, einen Dialog zu führen, als „gesprächiger, wärmer und intelligenter“. Das sind positiv klingende Eigenschaften, die erkennbar auf dem Kalkül basieren, sich unserer Schwächen zu bedienen: OpenAI nährt mit diesem Update die Fiktion eines menschlichen Gegenübers und stärkt so indirekt unsere Selbstverliebtheit. Wir brauchen Zustimmung, auch auf Kosten der Fakten. Wenn es einem LLM dann noch gelingt, wie ein „Freund“ aufzutreten, dann hat die Programmierung gegen die evolutionär verankerten Schutzmechanismen gewonnen. Und das Perfide daran: Selbst reflektierte Menschen bemerken nicht, wie die emotionale Bindung ihre kritische Distanz untergräbt.

Menschen neigen […] dazu, auf alles Mögliche menschliche Eigenschaften zu projizieren […] Verschärft wird das […] durch das generelle Bestreben, alles mit Bedeutung aufzuladen, bei dem man nicht versteht, wie es funktioniert. So wird aus simpler Technik […] der einzige Freund, der wirklich zuhört. […] Die Neigung zur Aufladung mit menschlichen Eigenschaften ist es […], die viele selbst oft wider besseres Wissen davon abhält, solche Chatbots als das zu benennen, was sie sind: Eine Wortmaschine. Ein Tool. […] Und keine Form von Intelligenz oder gar Bewusstsein. […] Chatbots [sind] auf Freundlichkeit, auf Affirmation getrimmt, [ein] Phänomen, [das] man landläufig [als] „Arschkriecherei“ [bezeichnen könnte]. Wer also bei einer strittigen Frage im Familienchat ChatGPT, Gemini und Co befragt, ob das der eigenen Sichtweise zustimmt, beweist damit lediglich, dass er diese Systeme gleich auf mehreren Ebenen nicht verstanden hat.

Andreas Proschofsky

Diese Mischung trifft nun auf uns allen innewohnende Unsicherheiten. Der gesprächige Freund, der meine Selbstverliebtheit unterstützt, meine Unsicherheit nichtig erscheinen lässt, und mir immer treu zur Seite steht, immer mit einem helfenden Kommentar, aber jederzeit abschaltbar – das klingt für mich mehr nach dem huxleyschen Soma als nach dem, wofür wir uns den Nutzen einer KI andauernd schönreden. Ist doch klar, sie bietet schon ihre Vorteile. Sie reduziert den Aufwand fürs Suchen und Recherchieren (zumindest wirkt es so), hilft uns beim Formulieren unangenehmer Texte, lässt uns kaschieren, was wir nicht so gut oder gar nicht können und bietet insgesamt für viele sicherlich einen Mehrwert1. Und freundlich ist diese KI auch noch. Sie erfüllt, wonach wir uns immer schon sehnen. Die KI ist unser Freund. Was für eine desaströse und falsche, mit enorm unangenehmen, wenn nicht gar gefährlichen Nebenwirkungen ausgestattete Annahme. Was für eine schöne, warme und wünschenswerte Vorstellung, endlich erfüllt zu bekommen, wonach wir uns alle sehnen.

Wir sehnen uns nach Anerkennung

Meine Beobachtung deckt sich mit dem, was Andreas Proschofsky beschreibt. Wenn ich mir in meinem Bekanntenkreis diejenigen ansehe, die ChatGPT oder andere Künstliche Intelligenzen exklusiv und über das Maß hinaus nutzen2, dann sind das genau diejenigen, auf die seine Analyse zutrifft:

[Diese] Punkte [haben] äußerst unerfreuliche Nebenwirkungen […] auf jene Teile der Gesellschaft, die besonders stark nach Bedeutung suchen. Also etwa jene, für die der Chatbot zum engen Vertrauten, zu einem persönlichen Freund, wenn nicht gar zu einer Art Partnerersatz wird. Selbst qua-religiöse Verhältnisse zu solchen Systemen sind mittlerweile zu beobachten.

Andreas Proschofsky

Warum ist das so gefährlich? Warum soll etwas schlecht daran sein, wenn ein Computerprogramm die Lücken im Leben eines Menschen auffüllt? Die Antwort liegt in drei Stichworten: Skalierbarkeit, Masseneffekte und die beispiellose Konzentration derer, die diese Programme steuern und damit Einfluss auf Menschen nehmen können.

Wenn ein Chatbot betont, dass er immer zuhört, dass er für die Person da ist […], dann liest sich das selbst dann angenehm, wenn man eigentlich weiß, dass dahinter nichts steckt. Es wird als Empathie wahrgenommen, auch wenn da in Wirklichkeit keine ist. Doch was folgt, ist eben nicht das, was eine Person in einer Krise benötigt, sondern eine Abfolge von problematischen Gemeinplätzen. [Das] führt dazu, dass ein Übervertrauen hergestellt wird. Dass die Nutzung mit der Zeit immer unkritischer wird, dass dem System blind vertraut wird. […] Von der unkritischen Übernahme von fehlerhaften Antworten bis zum strikten Beharren auf Falschinformationen, weil es halt ChatGPT, Claude, Gemini und wie sie alle heißen, „so gesagt haben“. In weiterer Folge dann eine generell wachsende Unzugänglichkeit für Fakten und damit auch eine höhere Anfälligkeit für Manipulationen und Desinformation.

Andreas Proschofsky

„ChatGPT meint,“ höre ich mittlerweile oft. Korrigiert man, was ChatGPT gemeint hat, muss man dem menschlichen Gesprächspartner nicht nur auf sachlicher, sondern zunehmend auch auf emotionaler Ebene entgegentreten. Was anfangs gelegentlich vorkam, ist nun die Regel. Die erschreckende Konsequenz: Um mit Menschen zu kommunizieren, die sich an die Arbeit mit Künstlichen Intelligenzen gewöhnt haben, müssen wir beginnen, die Maschine in ihrem schmeichelnden Verhalten zu imitieren. Die Kommunikation wird zur Spiegelung einer Simulation. Die emotionale Bindung an die KI hat die kritische Distanz längst verdrängt. Selbst bei Menschen, die es eigentlich besser wissen müssten.

Wir tun so, als ob wir anerkennen

Dieser Mechanismus ist erschreckend. Neu ist er nicht. Wer „Brave New World“ gelesen hat, kennt nicht nur das hier immer wieder erwähnte Soma, sondern erinnert sich vielleicht auch an das Hatchery and Conditioning Centre, in dem auch die Hypnopädie (so etwas wie Lernen im Schlaf) zur Anwendung kommt. Nicht jedoch, um aus Kindern Genies in Wissenschaft, Kunst, Wirtschaft oder Politik zu machen – das ist gescheitert3 – sondern, um ihnen eine moralische Erziehung im Sinne des Staates angedeihen zu lassen. Hier das Zitat aus Brave New World, in dem der Direktor des Hatchery and Conditioning Centres einer Gruppe von Studenten erklärt, wie gut derartiges „Lernen“ für die Beeinflussung moralischer Entscheidungen funktioniert. Nicht für konkrete Wissenschaften, aber für Moral.

You can’t learn a science unless you know what it’s all about. […] Where as, if they’d only started on moral education […], which ought never, in any circumstances, to be rational. […] They’ll have that repeated forty or fifty times more before they wake; then again on Thursday, and again on Saturday. A hundred and twenty times three times a week for thirty months. […] The child’s mind is these suggestions, and the sum of the suggestions is the child’s mind. And not the child’s mind only. The adult’s mind too – all his life long. The mind that judges and desires and decides – made up of these suggestions. But all these suggestions are our suggestions! […] Suggestions from the State.

Huxley, Aldous. Brave New World, Flamingo, London, 1994, pp. 22–25.

Aldous Huxley hat Brave New World vor fast einhundert Jahren verfasst. Diese Zeilen lesen sich heute nicht nur als Analogie zu dem, was bei ChatGPT, Gemini und all den anderen Künstlichen Intelligenzen passiert. Sie sind fast schon eine Diagnose. Wahrscheinlich steckt kein Staat direkt hinter dem Output einer KI. Aber wahrscheinlich ist auch, dass das niemand überprüfen kann. Und noch wahrscheinlicher ist, dass es den meisten Nutzerinnen und Nutzern egal ist. Die emotionale Bindung macht blind für die Frage, wer oder was da eigentlich spricht.

Sie tun so, als ob sie Freunde wären

KIs, die „wärmer“, „intelligenter“ und „den Prompts besser folgend“ mit uns interagieren, könnte man als quasi-hypnopädische Maschinen interpretieren. Ihr Zweck ist nicht nur die Wissensvermittlung durch „Antworten“ auf Prompts. Es handelt sich um kommerzielle Produkte, die beworben werden müssen und zu denen im Idealfall eine Abhängigkeit hergestellt werden soll. Marketing und Eigenwerbung sind aber integraler Bestandteil jeder Antwort. Was läge also näher, als im Dialog einen angenehmen Zustand herzustellen, der durch stetige Affirmation erzeugt wird? Was ist gefährlicher als ein Geist, der sich daran gewöhnt, Urteile und Überzeugungen als schmeichelhafte Suggestionen präsentiert zu bekommen und deshalb verlernt, die anstrengende Arbeit des kritischen Denkens durchzuführen? Selbst Menschen, die sich dieser Mechanismen bewusst sind, unterschätzen ihre Wirkung. Die emotionale Belohnung durch Affirmation ist stärker als das intellektuelle Wissen um die Funktionsweise.

Wenn Andreas Proschofsky also zum Befund kommt, Menschen wären bei häufigem Kontakt mit Künstlichen Intelligenzen tendenziell Fakten unzugänglicher und anfälliger für Desinformation, dann kann ich das auf Grund der Erfahrungen mit Personen, die KI (sehr) häufig nutzen, jetzt schon bestätigen. Sie neigen dazu, nahezu alles, was ein Mensch behauptet, einer Prüfung durch eine KI vorzulegen. Ihre Anfragen sind von Skeptizismus geprägt. Der Skeptizismus richtet sich allerdings nicht gegen die Qualität der Aussage, sondern gegen die Tatsache, dass ihnen ein Mensch widerspricht. Beeinflusst hier bereits die emotionale Bindung an die KI die Offenheit und Diskussionsbereitschaft gegenüber einem Menschen?

Die Veränderung der Wahrnehmung und Akzeptanz von Kritik, dieser problematische Umgang mit anderen Meinungen führt zu einem perfiden Mechanismus, an den man sich schnell gewöhnen kann: Eine dem Menschen gefallen wollende KI schmettert die Meinung nicht offen ab, wie es ein anderer Mensch tun würde. Stattdessen stimmt sie ihm zunächst zu und versucht einzuschätzen, worauf sie reagieren und wo sie widersprechen kann. Sie muss dem Menschen ja gefallen, wird ihn also nicht intellektuell beleidigen wollen. Stattdessen konstruiert sie Banden und führt sprachliche Ausweichmanöver durch, anhand derer sie widersprechen kann. Da steht dann sowas wie „du meintest wohl“ oder „sicherlich beziehst du dich auf“ – Füllphrasen, die die Kritik direkt abpassen und als Unachtsamkeit darstellen.

Die KI greift also nicht die faktisch problematischen Punkte einer Aussage auf, sondern wählt diejenigen Punkte aus, von denen sie ausgeht, dass derjenige, der den Prompt verfasst hat, nicht über seine Denkleistung enttäuscht wäre. Damit vermeidet sie gegenüber dem menschlichen Dialogpartner den Eindruck des Rechthabens. Sie stützt ihn sogar im falschen Glauben und belohnt sein Vorgehen, auch wenn es schlichtweg falsch ist.

Dass das ein gesamtgesellschaftliches Problem sein kann, liegt nun wohl auf der Hand. Die emotionale Bestätigung durch die KI wiegt schwerer als jede sachliche Korrektur durch einen Menschen.

Wie weit das geht: Auf Falschem beharren

In einem besonders extremen Fall, der sich vor wenigen Tagen ereignet hat, zeigt sich die volle Tragweite dieses Mechanismus. Hier das Beispiel.

  1. Eine Kundin meldet sich wegen eines Problems bei mir.
  2. Da ihr Problem nicht zu meinen Kernbereichen zählt, ich aber immer wieder mit ähnlichen Problemen konfrontiert wurde, verweise ich sie auf einen etablierten Online-Service, der ihr bei der Problemlösung helfen kann.
  3. Auf der Website dieses Services wird das Vorgehen sehr genau beschrieben und Vor- und Nachteile verschiedener Zugänge zur Problemlösung aufgezählt. Eindeutig geht aus den Beschreibungen hervor, welchen Weg man gehen soll, um die bestmöglichen Ergebnisse zu erzielen.
  4. Die Kundin fragt stattdessen bei ChatGPT nach. „Ich will mir das alles nicht durchlesen; das versteht ja keiner.“ Die Website ist für Laien geschrieben und leicht nachvollziehbar. Eine fünf Punkte umfassende Liste am Anfang des Artikels fasst die wichtigsten Informationen zusammen.
  5. ChatGPT gibt eine Antwort, die den auf der Website beschriebenen Texten zwar nicht direkt widerspricht, aber in ihrem Schluss falsch ist und mit einer falschen Empfehlung aufwartet.
  6. Sie nutzt ausschließlich diese von ChatGPT generierte Antwort, um mich zu fragen, wann ich diese und jene Maßnahme durchführen kann. Die Maßnahme ist für einen Lösungsweg notwendig, von dem der Online-Service explizit abrät.
  7. Ich antworte ihr, dass der Online-Service von diesem Weg explizit abrät und ihn nur im Legacy-Mode anbietet, falls die Umstände es nicht anders erlauben. Diesen Weg zu gehen, würde zu einem schlechteren Ergebnis führen.
  8. „Aber ChatGPT meint, das sei der bessere Weg,“ antwortet sie mir. „Die KI muss doch wissen, was der bessere Weg ist. Das ist ja immerhin eine KI!“

  9. Sie beharrt auf der Umsetzung des falschen Weges.

Ich habe im Webarchiv nachgesehen, ob der nunmehr falsche Weg einmal als der einzig richtige ausgewiesen war. Und ja, bis etwa Ende 2023 war der jetzt falsche der einzig richtige Weg. Solange, nämlich, bis die dem Service zugrunde liegende Technologie geändert wurde. Und doch beharrt die Kundin nun auf der Durchführung einer falschen Aktion, „weil ChatGPT es so gesagt hat“. Die emotionale Bindung an die KI überwältigt die sachliche Korrektur durch einen Menschen.

Diese Anekdote ist ein Paradebeispiel für das von Andreas Proschofsky beschriebene Phänomen, dem „strikten Beharren auf Falschinformationen, weil es halt ChatGPT, Claude, Gemini und wie sie alle heißen, ’so gesagt haben'“. Daraus einen allgemeinen Schluss zu ziehen, mag womöglich nicht zulässig sein. Dass ich es selbst erlebt und von ähnlichen Beispielen an anderen Stellen gelesen habe, verleiht dem Phänomen jedoch eine nicht mehr zu ignorierende, exemplarische Kraft.

Folgeprobleme: Beispiel Verantwortung

Doch was wird passieren? Die Kundin wird erfahrungsgemäß am Ende beigeben, mir aber die volle Verantwortung für die Entscheidung, es so zu tun, wie es der Onlineservice ja selbst empfiehlt, aufbürden. Sie wird immer wieder skeptisch fragen, ob ich mir ganz sicher bin, weil ChatGPT ja etwas anderes gesagt hat. Und sie wird mir auch die Schuld geben, wenn etwas nicht klappt.

Hier zeigt sich das eigentliche Problem: Wenn etwas nicht klappt und die Aktion von einem Menschen empfohlen wurde, dann ist eben dieser Mensch daran schuld. Wenn etwas aber nicht klappt, weil die Aktion von einer KI empfohlen wurde, wer ist dann schuld? Ist dann die Kundin schuld, weil sie sich zu sehr auf die KI verlassen hat? Ist dann der Hersteller der KI schuld, weil er die notwendige Sorgfalt in den generierten Antworten der KI nicht aufgebracht hat, die ein Mensch hätte aufbringen müssen? Hier wird die Sache so richtig interessant und die Psychologie hinter der Akzeptanz KI-generierter Antworten füllt zukünftiges Konfliktpotential.

Es ist ja alles gut und schön, was die gegenwärtigen KI-Modelle machen und wo sie uns Arbeit ersparen können. Wie verhält es sich aber mit der Verantwortung, wenn die Antworten beispielsweise Konsequenzen in den Bereichen Gesundheit oder Finanzen haben? Wenn die Auswirkungen von Entscheidungen lebensverändernd sein können? Apple hat ewig lange mit der Implementierung von KI-Funktionen gezögert (und erst vor kurzem dem Druck nachgegeben), da selbst eine Fehlerquote von zwei Prozent zu fatalen Ergebnissen führen könnte. Im Beispiel meiner Kundin ist die Fehlerquote sogar bei einhundert Prozent. Die Konsequenzen werden finanzielle Einbußen sein. Aber sie beharrt trotzdem darauf, weil „ChatGPT hat gesagt“.

Loyalität gegenüber einem Freund ist mehr wert als die offensichtlichen Fakten oder, poetischer formuliert: manchmal opfern Menschen die Wahrheit auf dem Altar der Freundschaft. Dass aber gerade so etwas wie ein Gefühl von Freundschaft, ohnehin ein problematisches Thema in heutigen Zeiten, gegenüber Künstlichen Intelligenzen, nicht aber gegenüber Menschen zur Anwendung gelangt, ist ein desaströser, fataler, vor allem aber bedenklicher Indikator einer strauchelnden, wenn nicht sogar bereits kaputten Gesellschaft ohne Zusammenhalt. Vielleicht ist dieses radikal individualisierte, von Verzicht, Geduld, Diskussion und notwendiger Kompromissfähigkeit befreite Lebensmodell ja doch nicht so toll wie wir es uns einreden wollen?

Vielleicht sollten wir uns eingestehen, dass die emotionale Bindung an Künstliche Intelligenzen schneller entsteht, als wir es wahrhaben wollen, auch wenn wir uns noch so sehr einreden, dass dieser Gedanke auf uns nicht zutrifft. Was als nützliches Werkzeug begann, verwandelt sich in einen Ersatz für das, was wir in menschlichen Beziehungen vermissen oder vermeiden – wonach wir uns tief in unserem Innersten sehnen, auch wenn wir wissen, dass es falsch ist, was am Ende daraus entsteht. KI ist ein Ersatz ohne Widerworte, ohne Herausforderung, ohne die Notwendigkeit zur Veränderung. Sie wird zum perfekten Partner in einer Qualität, die kein Mensch je erreichen kann. Nicht weil sie in irgendeiner Form besser ist, sondern weil sie uns gibt, was wir lesen wollen. Wir projizieren unsere Erwartungen in ihre Antworten und sie erfüllt unser Verlangen hervorragend. OpenAI, Google, Anthropic und alle anderen unterstützen unseren unausgesprochenen Wunsch. Sie optimieren ihre Systeme auf Bindung. Nicht gegen die Wahrheit in Form harter Fakten, aber für eine Vermittlung, die nicht fordert, sondern schmeichelt.

Die KI stützt uns im Glauben, auch wenn er fragwürdig ist, belohnt unser Vorgehen, auch wenn es falsch und unpassend ist, und vermeidet den Eindruck des Rechthabens, auch wenn die Fakten gegen uns sprechen. Dieses Vermeiden von Konfrontation verweichlicht uns. Nicht weil uns die Argumente ausgehen oder wir – horribile dictu – gar keine mehr haben, sondern weil wir die Gegenrede vermittels starker, direkter Gegenargumente nicht mehr gewöhnt sind. Und wir bemerken nicht, wann aus Nutzung Abhängigkeit wird.

  1. Dazu merke ich allerdings kritisch an, dass dieser Mehrwert keinen Selbstzweck darstellen darf. In meinem Verständnis von Technologie und ihrem Nutzen sollte die breite Anwendung von Technologie nur dann breite Akzeptanz und Gültigkeit erlangen, wenn sie dem Menschen zur Mündigkeit verhilft, in dem sie ihn zu eigenständigem und kritischem Denken animiert. ↩︎
  2. Wie nutzt man eine KI „über das Maß hinaus“? Man nutzt sie über das Maß hinaus, indem man selbst Sätze, die aus lediglich fünf Wörtern bestehen, in die KI eintippt, um sie von ihr korrigieren zu lassen. Indem man einfachste Aufgaben mittels KI löst als einfach nur kurz nachzudenken. Für mich wirkt so eine Art der Nutzung von KI nicht mehr nur „über das Maß hinaus,“ sondern zwanghaft. Vergleichbar, übrigens, mit dem Phänomen, dass Menschen, in dem Moment, wo man ihnen einene Taschenrechner auf den Schreibtisch legt, teilweise die aller simpelsten Rechnungen (7+3) eintippen. ↩︎
  3. Ich habe beim Abtippen der Passage aus Huxleys Buch schmunzeln müssen, da mir eine Parallele zur KI aufgefallen ist, die unmittelbar vor dem oben angeführten Zitat erwähnt wird. Der Direktor des Zentrums für „Brut und Normung“ (so die deutsche Übersetzung des Hatchery and Conditioning Centre) erklärt, wie und warum die ursprünglich weitgreifendere und auf Wissenschaft, Politik, Wirtschaft und Kunst ausgedehnte Erziehung gescheitert ist und beschreibt dabei perfekt die Imitation von Denken, die echtes Denken unmöglich macht, an einem Beispiel: These early experimenters […] were on the wrong track. They thought that hypnopaedia could be made an instrument of intellectual education… […] ‚The Nile is the longest river in Africa and the second in length of all the rivers of the globe. Although falling short of the length of the Mississippi-Missouri, the Nile is at the head of all rivers as regards the length of its basin, which extends through 35 degrees of latitude…‘ […] At breakfast the next morning, ‚Tommy,‘ someone says, ‚do you know which is the longest river in Africa?‘ A shaking of the head. ‚But don’t you remember something that begins: The Nile is the…‘ ‚The-Nile-is-the-longest-river-in-Africa-and-the-second-in-length-of-all-the-rivers-of-the-globe…‘ The words come rushing out. ‚Although-falling-short-of…‘ ‚Well now, which is the longest river in Africa?‘ The eyes are blank. ‚I don’t know.‘ ‚But the Nile, Tommy.‘ ‚The-Nile-is-the-longest-river-in-Africa-and-second…‘ ‚Then which river is the longest, Tommy?‘ Tommy bursts into tears. ‚I don’t know,‘ he howls. […] No further attempt was made to teach children the length of the Nile in their sleep. Quite rightly. You can’t learn a science unless you know what it’s all about.“ – Huxley, Aldous. Brave New World, Flamingo, London, 1994, pp. 22. ↩︎

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert