Ted Chiangs ChatGPT-Artikel

Ted Chiang hat einen der gegenwärtig besten Artikel zum Thema ChatGPT und dem allgemeinen Verständnis der Funktionsweise von LLMs verfasst. Und ich habe ihn hier stümperhaft komprimiert und mit ein wenig Jaron Lanier kommentiert.

Eine Sache, die ich noch 2023 erledigen und gleich zu Beginn 2024 veröffentlichen wollte, ist endlich meinen Kommentar zu Ted Chiangs ChatGPT-Artikel im New Yorker zu schreiben, in dem der Autor den Output, den ChatGPT liefert, als „blurry jpeg of the web“ bezeichnet und diese Unschärfe gleichermaßen als unterhaltsames Element wie auch als große Schwachstelle des Large Language Models (LLM) von OpenAI ausmacht, vor allem aber über die dem Verständnis von dem, was wir unreflektiert als „künstliche Intelligenz“ bezeichnen, zugrunde liegende Technologie und ihre Art, Ergebnisse zu produzieren, aufklärt.

Ted Chiang ist, das nur für diejenigen, die ihn nicht kennen, nicht irgendein Autor, sondern einer, der sich in seinen Romanen – er hat beispielsweise die Literaturvorlage für Arrival geschrieben – gerne mit Sprach- und Denksystemen befasst, was ihm bei einem Artikel über ChatGPT, hier wenig glamourös mit einem Onlineservice gleichgesetzt, der mittels Prompts ausgelöste Ergebnisse auf Textbasis produziert, zugute kommt und in der Heranführung der Leserinnen und Leser an die Funktionsweise eben jenes Onlineservices deutlich wird.

Wer also begreifen will, wie die Ergebnisse, die ChatGPT hervorbringt, zustande kommen, wem aber die Aussicht auf Details in Mathematik und Statistik Unbehagen bereitet, vor allem aber, wer verstehen will, wieso wir Menschen diese von einem superfancy Statistiktool produzierten Ergebnisse so leichtfertig, fast schon gewollt unreflektiert und nahezu ohne Kritik akzeptieren, sollte sich die paar Minuten Zeit nehmen und Ted Chiangs Artikel im New Yorker lesen.

Warum bin ich so dermaßen begeistert davon? Einerseits, weil ich während der Lektüre festgestellt habe, dass ich über einige Themen, die in dem Artikel angesprochen werden und über die reine Erklärung, wie ChatGPT funktioniert, hinausgehen, auch hier auf meinem Blog bereits geschrieben habe. Und andererseits, weil der Autor wichtige Fragen zur Akzeptanz und dem viel zu wohlwollenden Annehmen gewollter Unschärfen des Outputs generativer KI stellt. Künstliche Intelligenz wirkt fast wie ein mythisches Wesen auf uns, ergänze ich später in Anlehnung an einen Beitrag von Jaron Lanier, in dem er nüchtern feststellt, „there is no AI„, und diese, unsere Wahrnehmung von künstlicher Intelligenz als Hindernis für ihre nutzbringende Handhabe aufdeckt. Ein Zugang, der den Wert menschlicher Kreativität nicht als Konkurrent von KI definiert, sondern den Spieß umdreht und eben jene Gleichwertigkeit der beiden im Kontext menschlicher und gesellschaftlicher Entwicklung als Mythos enttarnt.

KI ist die Wahrscheinlichkeit von Information als Lückenfüller im Datenbestand

Ted Chiang beginnt seinen Artikel mit einer präzisen Beschreibung des Fehlers, den Scankopierer von Xerox einige Zeit lang gemacht haben, um sich dem Argument der Unschärfe als eigenständige Qualität eines Large Language Models (LLM) anzunähern. Die starke Kompression, die notwendig ist, um die Kopie eines Dokuments speichern und im Anschluss reproduzieren zu können, verursacht Unschärfen, die aber, wieder zusammengesetzt und als Produkt vorliegend – seien es simple Kopien wie bei Xerox, oder ganze Texte wie bei ChatGPT – je nach Anwendungsfall entweder als Fehler (Xerox) identifiziert werden oder als Kreativität, „eigenständiger Output“ oder „intelligente Antwort“, wie im Falle von ChatGPT. Das dem zugrunde liegende Prinzip ist aber in beiden Fällen ein Prozess, der große Mengen an Daten komprimiert und daraus im einen Fall ungewollt (Kopierer), im anderen Fall gewollt (ChatGPT) neue Daten generiert. Bei ChatGPT ist es sogar noch das, was wir als die Qualität des Tools an sich ausmachen. Die Ausgabe neuer Daten ist genau das, worüber wir Menschen uns freuen, was bei uns das Staunen über die Leistungsfähigkeit einer KI ausmacht, und was uns Unternehmen, die die Technologie in ihre Produkte integrieren, äußerst erfolgreich als das Momentum künstlicher Intelligenz verkaufen.

The resemblance between a photocopier and a large language model might not be immediately apparent—but consider the following scenario. Imagine that you’re about to lose your access to the Internet forever. In preparation, you plan to create a compressed copy of all the text on the Web […] Unfortunately, your private server has only one per cent of the space needed; you can’t use a lossless compression algorithm if you want everything to fit. Instead, you write a lossy algorithm that identifies statistical regularities in the text and stores them […] The only catch is that, because the text has been so highly compressed […] if you’re looking for an exact sequence of bits, you won’t find it; all you will ever get is an approximation. But, because the approximation is presented in the form of grammatical text, which ChatGPT excels at creating, it’s usually acceptable. You’re still looking at a blurry [representation], but the blurriness occurs in a way that doesn’t make the picture as a whole look less sharp.

Ted Chiang

Hat Ted Chiang da gerade das als Speerspitze der Künstlichen Intelligenz wahrgenommene ChatGPT als einen de facto stark fehlerbehafteten Algorithmus zur Kompression und Dekompression von Texten beschrieben, der nur funktioniert, weil er grammatikalisch korrekte Texte produziert und uns damit erfolgreich blenden kann? Ja, hat er. Und ja, mir ist erst dadurch so richtig klar geworden, wie Unwissen und eine gigantische Menge an Fehlannahmen über die Funktionsweise und die Möglichkeiten eines LLMs ein Bild der Software produzieren, das sich hervorragend als etwas komplett Neuartiges verkaufen lässt. Überspitzt formuliert, aber das ist mein Gedanke und nicht der von Ted Chiang, bedeutet das, dass uns OpenAI, Microsoft, Google und andere Unternehmen, die eigene LLMs betreiben, eine elegant, durch Blendung und korrekte Grammatik versteckte Unschärfe in der Dekompression von Daten als „Intelligenz“ verkaufen. Es bedeutet auch, dass eine ganze Heerschar von Softwarefirmen und Agenturen als Apologeten einer Technologie auftreten, die ihrem Wesen nach etwas anderes ist als sich aus den Erfolgs- und Effizienzversprechen eben dieser Firmen ableiten ließe. Und es bedeutet auch, und das ist der Punkt, der mich am meisten beunruhigt, dass das Mittelmäßige durch nahezu unendliche Perpetuierung in einen Verdrängungswettbewerb mit qualitativ Hochwertigem eintritt. Doch zurück zu Ted Chiangs Artikel!

Generisch neuer Zugang als Ausdruck von Verständnis

Wie könnten wir dem Problem, noch mehr Information noch stärker zu komprimieren und gleichzeitig präzise Ergebnisse zu produzieren, begegnen? Ted Chiang verweist auf den KI-Forscher Marcus Hutter, der in der endgültigen Lösung dieser Herausforderung – also der Kompression unendlich vieler Daten bei gleichzeitigem Beibehalt der Fähigkeit, diese Daten exakt und präzise wiederzugeben – den entscheidenden Moment sieht, von einer echten, auf dem Verstehen von Daten aufbauenden, künstlichen Intelligenz zu sprechen. Sie basiert dann nämlich nicht mehr auf einer Formel, mit der Daten bestmöglich platzsparend auf einem Speichermedium angeordnet werden, einer weiteren Formel, um diese platzsparende Anordnung wieder in verwertbare Daten zurück zu wandeln, und einem Algorithmus, der die durch diesen Prozess entstehenden Lücken auf Basis von aus dem Datenmaterial abgeleiteten, statistischen Wahrscheinlichkeiten auffüllt (hier entsteht die oben schon zur Genüge erwähnte Unschärfe), sondern geht den entscheidenden Schritt weiter, in dem sie die den Daten zu Grund liegenden Prinzipien (1) erkennt und (2) anwendet, um Kompression durch sowohl (3) inhaltliche als auch (4) funktionale Abstraktion zu erhalten. Diese Abstraktion, vom konkreten Anwendungsfall (dem Detail) zum übergeordneten Prinzip (der Abstraktion), kommt, so Hutter, dem menschlichen Verstehen schon sehr nahe und wäre somit die ultimative Form der Kompression. Das Besondere daran? Die auf diese Art und Weise hervorgerufene Reproduktion von Daten könnte (und würde wohl in den meisten Fällen) zu etwas gänzlich Neuem führen, einem Ergebnis, dessen Inhalt zwar dem des ursprünglichen Datenmaterials fremd ist, dessen Nutzen und Zweck ihm aber vollständig entspricht.

To grasp the proposed relationship between compression and understanding, imagine that you have a text file containing a million examples of addition, subtraction, multiplication, and division. Although any compression algorithm could reduce the size of this file, the way to achieve the greatest compression ratio would probably be to derive the principles of arithmetic and then write the code for a calculator program. Using a calculator, you could perfectly reconstruct not just the million examples in the file but any other example of arithmetic that you might encounter in the future. The same logic applies to the problem of compressing a slice of Wikipedia. If a compression program knows that force equals mass times acceleration, it can discard a lot of words when compressing the pages about physics because it will be able to reconstruct them. Likewise, the more the program knows about supply and demand, the more words it can discard when compressing the pages about economics, and so forth.

Konsequent zu Ende gedacht wäre das ursprüngliche Datenmaterial somit, würde es jemand aus welchem Grund auch immer fehlerfrei wiederherstellen wollen, nur ein Zweig einer möglichen Ausformung des oben beschriebenen Prinzips.

Akzeptanz leitet sich aus menschlich wirkenden Fehlern ab

Wir wissen nun, dass LLMs nicht „verstehen“, sondern Daten nur sehr gut komprimieren, dekomprimieren und Informationslücken, die während dieses Prozesses entstehen, mit plausibel wirkenden, weil aus statistischen Wahrscheinlichkeiten abgeleiteten Daten füllen. Wir wissen nun auch, was es bedeuten würde, wenn ein Algorithmus Daten nicht nur komprimiert und dekomprimiert, sondern, quasi in einem Kreislauf aus kontinuierlicher Induktion gefolgt von auf den Einzelfall angewendeter Deduktion, ein Level an Verständnis über das Datenmaterial erlangt, das, nach Marcus Hutter, dem menschlichen Verstehen schon recht nahe kommt. Was wir aber noch nicht wissen, und hier schwenkt Ted Chiang den Fokus seines Artikels auf die menschliche Wahrnehmung der Ergebnisse, die ChatGPT produziert, ist, wieso wir diese Ergebnisse so wohlwollend akzeptieren. Ja, sie uns größtenteils sogar in ihrer als Qualität wahrgenommenen Güte vollständig befriedigen.

Den Schlüssel im Verstehen über diese, unsere Akzeptanz, sieht Ted Chiang in der (notwendigen) Fähigkeit von ChatGPT und anderen LLMs, Daten in Paraphrase, also in Grammatik und Semantik korrekter, aber andere Worte nutzender Wiedergabe von algorithmisch vervollständigten Daten. Doppelt ungenau, sozusagen. Mit notwendiger Ungenauigkeit. Doch warum nehmen wir Menschen diese eindeutige Schwäche der Modelle als deren größte Stärke wahr? Die Antwort ist so banal wie unerträglich, wenn wir uns vor Augen führen, dass wir der Illusion von Intelligenz aus irgendwelchen Gründen mehr Intelligenz zuschreiben als wir ihr, der eigenen Intelligenz folgend, zuschreiben sollten.

If ChatGPT were a lossless algorithm […] it would always answer questions by providing a verbatim quote from a relevant Web page. We would probably regard the software as only a slight improvement over a conventional search engine, and be less impressed by it. The fact that ChatGPT rephrases material from the Web instead of quoting it word for word […] creates the illusion that ChatGPT understands the material. In human students, rote memorization isn’t an indicator of genuine learning, so ChatGPT’s inability to produce exact quotes from Web pages is precisely what makes us think that it has learned something. When we’re dealing with sequences of words, lossy compression looks smarter than lossless compression.

Wenn wir uns der Tatsache bewusst werden, dass eine fehlerbehaftete Wiedergabe von Daten intelligenter und hochwertiger auf uns wirkt als das fehlerfreie Original, dann stimmt mich das bedenklich. Vielleicht befriedigen uns die Produkte, die ChatGPT und andere LLMs liefern, aus der Erfüllung einer uns innewohnenden Annahme heraus, bei Fragen, deren Beantwortung etwas komplexer ist, grundsätzlich vom Vorhandensein von Fehlern auszugehen? Was bedeutet das dann aber für die Qualität und die Weiterverarbeitung derart entstandener Texte? (Bleiben wir der Einfachheit halber beim Textformat.) Es wäre ja kein Ding, wenn ChatGPT einen Text auf Basis einiger Prompts verfasst und wir Menschen ihn danach korrigieren, aber ich kann immer häufiger beobachten, wie sich die Produktionskette solcher Texte in eine Richtung verändert, in der nicht die Maschine den Entwurf produziert und der Mensch ihn zur Korrektur liest, sondern in der dieser Weg verkehrt wird: der Mensch produziert den Entwurf, wenn auch mithilfe von ChatGPT, und die Maschine führt dann den Feinschliff durch. Die endgültige Beurteilung über die Qualität eines Textes wird nur zu gern auf die Maschine ausgelagert, ein Phänomen, das wohl viele, die mit Software zu tun haben, auch in ganz anderen Settings erleben. Der Computer hat immer recht. Je weniger Freiraum er dem Menschen gibt, umso wohler fühlt sich der Mensch.

Fehlen von Ordnung im Denken und Präzision im Verfassen

Im letzten Teil seines Artikels geht Ted Chiang auf das Verhältnis von Autor zu Text, auf die Praxis des Schreibens und auf die damit einhergehenden Prozesse ein, ein Thema, über das ich hier schon sehr oft, in letzter Zeit natürlich vor allem in Bezug auf ChatGPT, geschrieben habe. Es geht Ted Chiang hierbei nicht mehr um das finale Produkt, also den auszuliefernden Text, sondern um den Prozess des Schreibens als solchem. Dieser Abschnitt ist ein Appell an das Scheitern, welches in Kombination mit Geduld und Ausdauer eine Qualität hervorbringende Kraft entfaltet. Die vielen Fehlschläge, die man macht, bevor ein zufriedenstellendes Ergebnis am Tisch liegt, sind ein notwendiger, dem Schreiben innewohnender, äußerst wertvoller, weil die Gedanken ordnender Prozess.

ChatGPT kann den Schaffungsprozess für einen passablen Text dramatisch verkürzen. Meistens kann die KI in wenigen Sekunden einen, wenn auch nicht inhaltlich oder stilistisch perfekten, so doch durchaus akzeptablen Text produzieren, den ein Autor oder eine Autorin nur noch nachbessern muss. Besteht das Beurteilungskriterium für ChatGPT einzig im Vorliegen eines Endprodukts, so ist ChatGPT durchaus große Hilfe und erhöht die Produktionsgeschwindigkeit enorm. Der für den Autor oder die Autorin allerdings viel wertvollere Prozess der Präzisierung und Einordnung geht dabei allerdings zugunsten einer lediglich auf den Faktor Zeit anwendbaren Effizienz verloren. Eine Warnung, die Evan Puschak als die wahre Gefahr von ChatGPT genannt hat, betont nun auch Ted Chiang.

If you’re a writer, you will write a lot of unoriginal work before you write something original. And the time and effort expended on that unoriginal work isn’t wasted; on the contrary, I would suggest that it is precisely what enables you to eventually create something original. The hours spent choosing the right word and rearranging sentences to better follow one another are what teach you how meaning is conveyed by prose. Having students write essays isn’t merely a way to test their grasp of the material; it gives them experience in articulating their thoughts. If students never have to write essays that we have all read before, they will never gain the skills needed to write something that we have never read. […] Your first draft isn’t an unoriginal idea expressed clearly; it’s an original idea expressed poorly, and it is accompanied by your amorphous dissatisfaction, your awareness of the distance between what it says and what you want it to say. That’s what directs you during rewriting, and that’s one of the things lacking when you start with text generated by an A.I.

Es gibt sie also doch, die Qualität der Langsamkeit, der Ineffizienz, des Umständlichen. Ein Paradoxon? Mitnichten. Effizienz ist immer Definitionssache, Umständlichkeit oft auf die Ungeduld Anderer zurückzuführen. Und Langsamkeit, das brauche ich wohl nicht extra zu erwähnen, auch nur ein Attribut der eigenen Sichtweise auf die Welt. Die Frage, die wir uns alle aber nun stellen sollten, ist – und hier verlasse ich Ted Chiang und hoffe auf viele weitere Artikel, die künstliche Intelligenz in ihrer momentanen Ausformung als das Werkzeug entblößen, das es ist, und nicht als Mythos, den wir sehen wollen -, wie wir nun mit einem vom Marketing verschiedener Unternehmen bis ins Extrem geführten AI-Versprechen umgehen können, wie wir Langsamkeit, Ineffizienz und Umständlichkeit als Qualität argumentieren können? Wie wir Individuen, Agenturen und ganzen Marketingplänen begegnen, die sich auf ein gefährliches Ziel hin bewegen und völlig außer Acht lassen, was die Einführung oder in den meisten Fällen ohnehin schon verstärkte Nutzung von „künstlicher Intelligenz“ auslösen wird: Zur Norm erhobenes, langweiliges, jede Kreativität vernichtendes, Fehler und Probleme perpetuierendes Mittelmaß.

Mittelmaß ist Effizienz, perpetuiert aber Ineffizienz

In einem Newsletter las ich vor ein paar Tagen über die Auswirkung der Möglichkeiten generativer AI. Das E-Mail bewarb einen ganz normalen, langweiligen Vor-Ort-Workshop, also nimmt man ohnehin nur zehn Prozent davon ernst, aber ich erwähne den Newsletter deshalb, weil darin eine Vorstellung über die Anwendung und Implementierung von generativer künstlicher Intelligenz so dargestellt wurde, wie wenn sie einem Naturgesetz folgen würde (und man dieser Welle an Neuerung hinterherhinken würde, wenn man sie sich nicht im Workshop präsentieren und erklären ließe). Abgesehen von der Absurdität des Aufeinandertreffens von Argumenten – FOMO in Bezug auf fancy neue Technologie versus Rettung vor der Flut in Form körperlichen Beisammenseins in einem physischen Raum, in dem jemand auf einer Tafel herumkritzelt und den Teilnehmern die Welt erklärt (ja, ich beschreibe gerade das Konzept „Workshop“) – fand ich die Präsentation über die Fähigkeiten und Möglichkeiten generativer künstlicher Intelligenz interessant. Im Newsletter wurde die Sache folgendermaßen dargestellt: Die KI wird das Erledigen von mehr Arbeit in einem kürzeren Zeitraum bei besserer Qualität ermöglichen. Das führt einerseits zur Veränderung der Erwartungshaltung an Quantität und Qualität der Arbeit selbst (nämlich: sie muss schneller, billiger und besser sein!), andererseits den Zugang zu Projekten (nämlich: sie können mehr, größer und komplexer sein!). Projekte, die bislang in Größe und Komplexität unmöglich im eigenen Unternehmen zu bewältigen schienen, sind nun nicht mehr nur möglich, sondern auch in relativ kurzer Zeit umsetzbar. Dass bei so einem Versprechen die Augen von Unternehmensführung und Management zu glänzen beginnen, ist klar. Ich wünsche viel Erfolg beim Seminar.

Doch was wird das Ergebnis einer Arbeitsweise sein, die aus dem Hinweisgeben (Prompts) an eine künstliche Intelligenz besteht und sich ohne Zweifel durchsetzen wird? Es wird nichts generisch Neues entstehen, wir werden uns nicht einer nachhaltigen Revolution unterziehen, die unsere grundlegenden Arbeits- und Verhaltensweisen verbessern wird, nein, stattdessen – und wir haben diesen Weg bereits beschritten – werden wir unsere Fehler und Probleme weiterhin ignorieren und – schlimmer noch – perpetuieren. Nur eben schneller und mehr.

Ich denke bei den gegenwärtigen Anwendungsfällen von KI andauernd an den aus zwei Bildern bestehenden marketoonist-Cartoon, in dem auf der einen Seite eine Person vorm Computer sitzend zu einer anderen sagt, „A.I. turns this single bullet point into a long email I can pretend I wrote“ und im zweiten Bild die gleiche Szene mit dem Satz „A.I. makes a single bullet point out of this long email I can pretend I read“ beantwortet. Es wäre ja lustig und wir könnten gemeinsam über die verkürzte Sichtweise auf das, wozu AI eingesetzt wird, lachen, gäbe es nicht bereits heute immer mehr Software, die den Witz in Programmcode übersetzt und sogar ausgeliefert hat. Ich denke bei den gegenwärtigen Anwendungsfällen von KI aber auch an die andauernden Versprechungen der großen Suchmaschinen, AI für uns User nutzbringend einzusetzen. Die Ergebnisse sind, zumindest bisher, alles andere als berauschend (und führen noch immer nicht zu Veränderungen des Marktes). Aber was haben wir uns eigentlich erwartet, wenn wir es mit einem Kompressionssystem zu tun haben, das Lücken in der Information mit Wahrscheinlichkeiten auffüllt?

Was mir aber am meisten Sorge bereitet, ist die dritte Art der Anwendung von KI, nämlich die, die dem Attribut „generativ“ am nähesten kommt.

Verständnisprobleme jetzt schon überall

Die vielen Probleme, die mit der Produktion von Text, Video und Bild durch künstliche Intelligenz einhergehen, sind teils offensichtlich, teils subtil und oft nur durch die nötige Distanz geschulter Augen erkennbar. Ob jemand erkennt, dass ein Textstück zu einem als neutral angenommenen Thema ungefragt ein Wertesystem transportiert? Ob jemand bemerkt, dass manchmal einzelne Wörter bereits Sichtweisen transportieren? Aus meiner Erfahrung mit Personen, die KI häufig schon nutzen, gehe ich mit einem Anspruch von an Sicherheit grenzender Wahrscheinlichkeit davon aus, dass es nicht mehr lange dauern wird, bis Personen bestimmte Feinheiten der Sprache nicht mehr erkennen werden können. Für sie wird es gleich sein, ob jemand läuft, rennt, geht oder spaziert, es wird egal sein, ob sich jemand für etwas entschuldigt oder sich dafür entschuldigt, wie man etwas verstanden hat. Sofern Wörter in Sätzen vorkommen, die bei loser Interpretation halbwegs Sinn machen, ist alles in Ordnung. Sinnerfassendes Lesen in seiner präzisesten Interpretation wird noch mehr ein Problem werden als es das ohnehin schon ist, das Formulieren von Ansprüchen an einen Text, ein Bild oder ein Video, kaum noch möglich.

Ich hatte vor kurzem erst ein Gespräch mit einer Bekannten, die mir einen Text zukommen ließ, mir kurz den Kontext für diesen Text lieferte und mich um meine allgemeine Meinung zum Text und um Antwort auf die Frage bat, ob dieser Text erfülle, was sie sagen will – allein das eine bemerkenswerte Frage, die mich aufhorchen ließ. Das Ergebnis? Der Text war langweiliges Blabla, das zwar brav die formalen Anforderungen an einen solchen Text erfüllte, nicht jedoch die Aussage und Botschaft enthielt, die sie vermitteln wollte. Sicherlich, die für diese Message notwendigen Worte waren in Zwischenüberschriften und Sätzen vorhanden, aber die Aussage als solche nicht. Sie gestand mir nach meinem Feedback schon bald, den Text vollständig mit ChatGPT geschrieben zu haben und die Prompts unter Zuhilfenahme von „Tools im Internet“ generiert zu haben, die ihr die „notwendigen Keywords“ für ihre Message geliefert hätten. All ihre Versuche, also, ihren Text effizienter zu erstellen und besser klingen zu lassen, sind gescheitert – und sie ist kein Einzelfall. Immerhin, sie hatte selbst Zweifel an dem, was die KI ihr da vorgelegt hatte und wollte deshalb, dass sich ein Dritter vergewissert, dass im Text drinnensteht, was sie will, dass drinnensteht.

Künstliche Intelligenz als Mythos behindert den Fortschritt

Die Prompts für den Text, den meine Bekannte verfassen wollte, waren nicht das Problem. Sie waren, ganz im Gegenteil, sogar sehr gut formuliert und präzise genug. Das Problem liegt meiner Meinung nach ganz woanders und ist die Antwort sowohl auf den von meiner Bekannten generierten Text als auch auf das diesen Absatz einleitende Statement: Die Annahme, die Maschine in ihrer gegenwärtigen Ausformung triumphiere über Intellekt und Intuition eines Menschen, ist, genauso wie die Ablehnung dieser Annahme als fortschrittsfeindliche Aussage, begründet im Glauben an den Mythos einer KI als Wesen. Diese Annahme wirkt nahezu lächerlich. Ein in so kühlen und präzisen Domänen wie Softwareentwicklung arbeitender Mensch wird doch nicht eine KI als Wesen verstehen, könnte man jetzt einwenden. Wissenschaftler in Mathematik, Statistik und anderen, streng der Ratio unterliegenden Fachgebieten „glauben“ doch nicht, schon gar nicht an solcherlei Mythen!

Das stimmt so nicht so ganz, meint allerdings niemand anderer als Jaron Lanier, erläutert das Problem der Wahrnehmung einer KI als mit den oben genannten Begriffen beschrieben und warnt davor, die Technologie gleich von Beginn an falsch zu verstehen.

The most pragmatic position is to think of A.I. as a tool, not a creature. […] Mythologizing the technology only makes it more likely that we’ll fail to operate it well—and this kind of thinking limits our imaginations, tying them to yesterday’s dreams. We can work better under the assumption that there is no such thing as A.I. The sooner we understand this, the sooner we’ll start managing our new technology intelligently.

Jaron Lanier

Warum ich Jaron Laniers Aussage in diesen Kommentar zu Ted Chiang bringe? Weil sich in meinen Augen hier der Kreis schließt und wir nunmehr am Anfang einer Tour d’Horizon über Wirkungsweise, Funktion, Wahrnehmung und Auswirkung gegenwärtiger KI angelangt sind und sich das Ergebnis dieser Rundschau als äußerst problematisch entpuppt: Wir verstehen nicht, was das, was wir als künstliche Intelligenz bezeichnen, in Wirklichkeit ist. Sobald wir aber verstanden haben, dass wir einen Algorithmus, der lediglich das Fehlen von Daten ausgleicht, als intelligent bezeichnen, wehren wir uns gegen diese Vereinfachung. Wir wollen künstliche Intelligenz als mythisches, allwissendes und alle Probleme lösendes Wesen verstehen, mit einer fast schon religiös anmutenden Eigenständigkeit, die wir aus seiner Behaftung mit Fehlern ableiten. Weil wir so viel Glauben in dieses mythische Wesen stecken, vertrauen wir auf seine transformative und unser Leben zum Besseren wendende Kraft. In Wirklichkeit aber perpetuiert die KI die gegenwärtigen Umstände. So, wie wir sie momentan verstehen und einsetzen, limitieren wir uns also selbst.

Ist das deprimierend und führt in den nächsten Jahren zu langweiligem Content, einer noch viel mehr kommerzialisierten und somit dem ohnehin schon unerträglichen Mittelmaß geopferten Zeit? Werden wir – zumindest diejenigen, die das überhaupt noch bemerken – noch mehr nach von Menschen generierten Informationen gieren? Werden wir nach Autorinnen und Autoren lechzen, die uns mit Unerwartetem, Neuem und Ungewöhnlichem überraschen, deren Formulierungen uns ins Stocken bringen, deren Wortwahl und Aneinanderreihung von Gedanken uns herausfordert, deren Ideen revolutionär sind und nicht machbar scheinen, auch wenn wir eben gelernt haben, dass in Zukunft alles machbar sein wird? Ich hoffe sehr, dass wir uns schon bald vom Mythos, den künstliche Intelligenz momentan so unerträglich stark umgibt, verabschieden werden und eine Zeit der Erleuchtung die Technologie lediglich als das Werkzeug einsetzt, das sie ist, nicht aber, einem Deus ex machina gleich, als Selbstzweck versteht.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert