Martin hat einen Blogbeitrag veröffentlicht, in dem er versucht zu argumentieren, wie und warum ihm Künstliche Intelligenz beim Denken hilft. Ich kann mir viele Wege vorstellen, wie KI nützlich sein kann, um einem Menschen beim Denken zu helfen, aber ich nehme dieses Beispiel zum Anlass, weil es eine interessante, aber auch diskussionswürdige und kritikwürdige Haltung offenbart, die man als Mensch, meiner bescheidenen Meinung nach, nicht gehen und aktiv verhindern sollte. Natürlich kann jeder tun wie er will, wir sind alle unseres Glückes Schmiede und so weiter, aber der Punkt, den ich im Folgenden machen möchte, bleibt aufrecht: KI quasi als Sparringpartner nutzen, stets im Bewusstsein über die besondere Qualität generierter und synthetisierter Antworten, ist vollkommen in Ordnung. KI als Dialogpartner nutzen und ihr menschliche Attribute zuschreiben, was zur Verschiebung des Bewusstseins über die Qualität der Antworten führt, nicht.
Um meinen Punkt zu verdeutlichen, habe ich mir erlaubt, seinen Text heranzuziehen, ein paar seiner Worte auszutauschen und eine bewusst provokante Position einzunehmen. Martins Text gilt als Grundlage und als Inspiration, weil sie in seltener Klarheit einen Impetus vorlegt, der einer Diskussion würdig ist1. Denn oft wird in einer wenig kritischen Betrachtung des Themas „KI zum Schreiben (oder Denken) nutzen“ das Denken aufseiten des Menschen mit dem Aufkommen von Einfällen verwechselt, das strukturierte Herangehen mit dem wirren Aufblitzen von Ideen, und die Auseinandersetzung mit, die Kritik an, und die Erarbeitung eines Themas mit einem Copy-Paste aus ChatGPT oder anderen KIs gleichgesetzt, denen am Ende mehr zugestanden wird als sie leisten können. Doch gehen wir die Sache Schritt für Schritt durch.
Ausformulierung und Ordnung
Im Text wird KI als Denkwerkzeug, sozusagen als „Hilfe beim Denken“, etabliert, weil sie den – ich überzeichne das ein wenig – nervigen, mühsamen und anstrengenden Prozess des Ausformulierens und Verschriftlichens von Gedanken stark verkürzen würde. Ein von ihm als notwendig bezeichneter Prozess, weil er in Gedanken unterzugehen droht. (Tun wir das nicht alle?) Implizit entfernt er aber die Tätigkeit des Ausformulierens von Gedanken (und die des Niederschreibens dieser Formulierungen) vom Prozess des Denkens selbst. Er argumentiert also für ein Denken, dem das Resultat – die Ausformulierung einer Idee zu einem durch Dritte nachvollziehbaren Gedanken – genommen und an eine Künstliche Intelligenz übergeben wird. Sie, die Künstliche Intelligenz (und nicht der Mensch) stellt somit das Resultat eines Denkprozesses erst her.
Wenn man diese Definition des Denkprozesses allerdings weiterführt, daraus ein Prinzip ableitet und es in einem anderen Kontext zur Anwendung bringt, entpuppt sich die „KI als Werkzeug zum Denken“ schnell als äußerst trügerische Vorstellung von Denken, die im Gegensatz zu tatsächlichem Denken steht. Dem Resultat dieses „Denkprozesses“ fehlt es an jedweder Form von Substanz, weil der Mensch einen wesentlichen Teil der eigentlichen Denkarbeit – den Prozess, nämlich, der in ihrem Naturzustand stets wirre und äußerst volatile Ideen und nicht unmittelbar zueinander in Abhängigkeit stehende Vorstellungen zu klaren Gedanken ausformuliert, die sich durch Nachvollziehbarkeit auszeichnen und so gegebenenfalls auch verschriftlicht werden können – an ein externes Werkzeug ausgelagert hat.
Das Denken, von dem ich spreche, ist ein Strukturierungs- und Ordnungsprozess, der dem Einfall, der Idee, und den in ihrem Urzustand natürlicher Weise immer etwas wirren und kaum nachvollziehbaren Gedanken nachfolgt, wenn er vom Menschen bewusst ausgelöst wird. Denken präzisiert Einfälle und Ideen, in dem es sie unter Anwendung von Sprache (oder eines anderen durch seine jeweiligen Grammatiken definierten Systems, das zur Kommunikation mit Dritten tauglich ist, wie zum Beispiel musische, bildnerische oder anderweitig künstlerische Kommunikationsformen) ausformuliert und so in einen Zustand überführt, der von der Sprunghaftigkeit des Vorgängerprodukts eines Gedankens (das sind eben die Einfälle, Eindrücke und Ideen) befreit ist. Die KI als Sparringpartner würde dabei helfen, die Sprunghaftigkeit auf ein Minimum zu beschränken; die Art und Weise wie sie aber genutzt wird, wenn sie als „kollaboratives Denkwerkzeug“ gebraucht und interpretiert wird, nicht. Denn so hilft sie nicht, die Beschränkung aufzuzeigen und überlässt es dem Menschen, sie vorzunehmen, sondern sie übernimmt die Beschränkung gleich selbst und bringt sich somit durch ihre ausformulierende Tätigkeit als Quasi-Individuum ein. Das Ausformulieren sehe ich aber nicht nur als einen nervigen und mühsamen Schritt vor der endgültigen Verschriftlichung eines Gedankens an, sondern als einen essentiellen Schritt in der Klarwerdung über einen Gedanken. In anderen Worten: Das Ausformulieren ist nicht Teil der Verschriftlichung, sondern essentieller, wenn nicht sogar der wesentlichste Teil des Denkprozesses an sich. Wer den also auslagert, denkt dieser Definition zufolge nicht.
Hier also eine Abwandlung eines Ausschnitts von Martins Beitrag, in dem ich jede Erwähnung des Einsatzes von KI als Werkzeug zum Denken mit dem Einsatz eines Autos mit Navigationsgerät als Werkzeug zum Training für einen Marathon ausgetauscht habe. Formulierung und Satzaufbau sind direkt von Martin übernommen.
Nach Martin, „Denken, Texte, Länge, Arbeit„
KIEin Auto mit Navigationsgerät ist auch ein Tool, dass mir sehr viel Zeit erspart beimDenkenTrainieren für einen Marathon. Ich sprecheeinen Gedanken hineinins Navigationsgerät die Zieladresse ein (weil es schneller geht) undentwickel im Dialog mit der KItrainiere meine Muskulaturden Gedanken, in dem ich den Anweisungen des Navigationsgeräts mit dem Auto folge. Sonst habe ich für solcheTexte TageTrainings Stunden gebraucht und am Ende gedacht, warum soll ich mir die Arbeit und Mühe machen. Mich kostet das Zeit, Kraft, Nerven. Also halte ich sie eher kurz oder sie sind mir zupersönlichanstrengend. […]An Gedanken hängen also lange GeschichtenAm Trainieren für den Marathon hängt also enormer Zeitaufwand, aber mir macht es zu viel Mühe,sie alleine aufzudröselndas Training ohne Auto durchzuführen. […] Wenn aber meineTexteTrainingseinheiten zu kurz sind,sind sie missverständlichbringen sie nicht viel. Wie überhaupt meineTexte missverständlichTrainingseinheiten kurz sind, und mitKIdem Auto kann ich sie viel schnellerverständlicherhinter mich bringen undausführlicher machennoch mehr Kilometer zurücklegen unddas Themamich aufs Training fokussieren.
Merkt ihr’s? Wie das Denken in dem Moment, in dem man die Sache anders bezeichnet und in anderen Kontext setzt, der grundsätzlichen Argumentation aber folgt, sich plötzlich als ein großes Nichts entpuppt, dem wir hinterher rennen in der Annahme, es wäre etwas? Denke, sozusagen, als eine Annahme ohne Substanz? Als ein gottähnliches Irgendwas irgendwo im Code einer KI? Worauf fokussiert sich jemand, der seine Trainingsstrecke für einen Marathon mit dem Auto fährt aufs Training, etwa? (Was ist dann dieses „Training“?) Da bleibt nicht viel übrig. Genauso wie sich der „Fokus aufs Training“ beim Autofahren zum tatsächlichen Training verhält, verhält sich das „Denken“ bei der Nutzung einer KI zur Ausformulierung der eigenen Gedanken zum tatsächlichen Denken, das sich genau dadurch definiert.
Dialog, aber mit wem womit?
Aber es gibt noch einen anderen Punkt in Martins Text, der mir ein wenig Unbehagen bereitet, weil er dem Endprodukt eines Computerprogramms, wenn auch eines nach außen hin intelligent wirkenden, gewissermaßen menschliche Attribute zuspricht und ihm so, über die Bande dieser Attribution, Validität und Gültigkeit zuspricht, es somit akzeptabel erscheinen lässt. Ich spreche über die Nutzung der dialogischen Form, die aus Martins Text als gewinnbringend, weil das Denken erleichternd, hervorgeht. Ich glaube aber trotzdem nicht, dass dieser Dialog, wie ihn Martin beschreibt, die Wertigkeit hat, die er haben müsste, um KI tatsächlich als „Werkzeug zum Denken“ bezeichnen zu können.
Wenn wir uns selbst kontinuierlich überzeugen müssen, mit einer KI in einem Dialog zu sein, reden wir uns zwar ein, das Steuer in einem Gespräch aktiv in der Hand zu halten, weil wir ja mit der KI interagieren und den initialen Prompt mit unseren eigenen Händen in den Chat eintippen oder mit unserem eigenen Mund einsprechen. In Wirklichkeit aber hat der Dialog bereits aufgehört, noch bevor er begonnen hat, sobald wir das Dialogfenster für den Chatbot geöffnet und die Erwartungshaltung eines Ergebnisses2 eingenommen haben. Das, das möchte ich an dieser Stelle anmerken, ist für die allermeisten Dinge auch in Ordnung. Für Recherche (zumindest im Anfangsstadium, in dem man Ideen sammelt), fürs mühsame Suchen oder fürs Abarbeiten des Menschen unwürdiger Aufgaben; aber nicht, wenn die Person, die mittels Chatbot einen Text erstellt, behauptet, dieser Text wäre Resultat eines (echten) Dialogs oder gar Ergebnis ihres eigenen Denkprozesses in dialogischem Zusammenspiel mit einer KI.
Künstliche Intelligenzen denken nicht, auch wenn sie noch so menschlich wirken und wir ihnen aus dieser Wirkung heraus wenn schon nicht Menschlichkeit, dann zumindest eine Persönlichkeit zusprechen, die wiederum jegliche Interaktion wie einen Dialog erscheinen lässt. Die Imitation des Dialogs ist aber bereits ein Problem mit fatalen Auswirkungen, weil wir Menschen ein Problem mit der Abstraktion – ja, mit einer Loslösung, geradezu – von Funktion und zugehörigem Objekt haben. Wenn wir mit einer Intelligenz ohne Mensch dahinter konfrontiert sind, erfinden wir ihn einfach, um die „Intelligenz“ verarbeiten, um sie für uns vorstell- und damit akzeptierbar machen zu können. Wir imaginieren Persönlichkeit und Menschlichkeit, wo ein Computerprogramm Intelligenz imitiert.
Millions of daily users engage with AI chatbots as if they were talking to a consistent person—confiding secrets, seeking advice, and attributing fixed beliefs to what is actually a fluid idea-connection machine with no persistent self. This personhood illusion isn’t just philosophically troublesome—it can actively harm vulnerable individuals while obscuring a sense of accountability […] LLMs are intelligence without agency—what we might call “vox sine persona”: voice without person. Not the voice of someone, not even the collective voice of many someones, but a voice emanating from no one at all.
Ars Technica
Fatal, wenn man darauf aufbaut und die KI mit menschlichen Attributen ausstattet, ihr mehr Partnerschaft, Freundschaft oder andere Eigenschaften zuspricht, die zutiefst menschlich sind, und sie so in einen Status erhebt, der ihrem Output Legitimität zuspricht. Passiert das im konkreten Fall? Ist dies die logische Konsequenz einer solchen Argumentation? Ich glaube schon; vieles deutet darauf hin.
Ursprünglich gestoßen bin ich auf Martins Blog über einen Artikel übers „Denken, Schreiben, Unterhalten, KI„. Darin beschreibt er, dass er „kaum noch ohne KI“ schreibt und begründet das mit einem unkontrollierbar scheinenden Feuerwerk an Gedanken, das er nur mithilfe des Werkzeugs Künstliche Intelligenz im Zaum halten, ausformulieren und verschriftlichen kann. Er nennt den Dialog mit der KI „kollaboratives Denken“. KI, so Martin, sei sein Denkwerkzeug.
Mir geht es […] darum, zu formulieren, was ich wirklich denke. Was ich dann schreibe oder erzähle, im Internet oder in echt, ist das Ergebnis, über [sic!] nicht der eigentliche Denkprozess. Ich bin ein Denkprozess. Ich bin ein permanentes Denkfeuerwerk […] Dieses Denken braucht aber auch Dialoge, […] damit ich die sowieso schon überfülligen Gedanken verständlich zusammenbringe. Ich habe ja nicht zu wenige Gedanken, ich habe zu viele und mehr als genug. Was ich sagen will ist, dass ich nicht mehr ohne KI schreiben will. […] Anfangs habe ich noch auf den Stil der KI geachtet und versucht, hier Unterschiede zu finden, weshalb Menschen besser schreiben. Den Unterschied gibt es nicht mehr und beim Stil denke ich: so fucking what?! Das ist kollaboratives Denken. KI ist mein Denkwerkzeug.
Martin in „Denken, Schreiben, Unterhalten, KI„
Hier stellt sich die Frage, ob die KI in einem solchen Fall nur ein Werkzeug ist oder ob sie eine andere Funktion erfüllt. Könnte die beschriebene Erleichterung auch als eine Form der Kapitulation vor der Komplexität des eigenen Denkprozesses gesehen werden? Eine Haltung wie „So fucking what?!“ könnte man in diesem Kontext als Ausdruck einer gewissen Resignation interpretieren, bei der die Einfachheit der KI-Lösung über die Mühen des eigenen Formulierens gestellt wird. Die KI als (Denk-) Werkzeug zu etablieren, ist die Verlockung von Einfachheit zu akzeptieren und sie mit schönen, gesellschaftlich wohlwollend anerkannten Worten zu schmücken, die zweierlei Wirkung haben: einerseits deuten sie die Nutzung als Kollaboration, Fortschritt, Erweiterung, Beschleunigung, ja, ganz allgemein, Zukunft und führen sie damit in eine nur schwer zu kritisierende Sphäre; andererseits dienen sie als Ablenkung, um den eigentlichen Grund, den womöglich nicht ganz so produktiven, nicht ganz so effizienten, so gar nicht nach irgendeiner Zukunftstechnologie klingenden Weg zu gehen.
Ich stelle mir die Frage – und habe das auch öfter hier schon getan: Welche Tätigkeiten sind es wert, von uns selbst erledigt zu werden, auch wenn sie mühsam sind? Das eigenständige Denken und Formulieren gehört für viele zu den Kernkompetenzen des Menschseins. Die Entscheidung, diesen Prozess an eine externe, nicht-menschliche Instanz abzugeben – selbst wenn diese effizienter, schneller und zeitsparener ist -, ist daher mehr als nur eine technische Wahl. Es ist eine Entscheidung über den Wert, den man der eigenen geistigen Anstrengung beimisst. Für mich persönlich bleibt das Denken eine jener Aufgaben, deren Wert gerade in der eigenen Durchführung liegt und die ich daher nicht an eine Maschine delegieren möchte, unabhängig davon, wie leistungsfähig sie ist oder als wie leistungsfähig sie wahrgenommen wird.
Gegen Ende des Artikels gibt es einen Satz (genau genommen ist es der nächste, dem obigen Zitat folgende Satz), der alles bis dahin in seinem Beitrag Geschriebene mit nur sieben Worten zunichte macht und erkennen lässt, dass dieses „Denken“ aber so gar nicht im Dialog stattfindet, sondern wenn überhaupt, dann ein eher einseitiger Prozess ist, der den Geist in die Spurrinnen drängt, in die man ach so leicht hineingeraten kann, wenn man sich mit einer KI unterhält, weil es eben an dem, was man die authentische Intentionalität eines menschlichen Dialog- und Gesprächspartners nennt, fehlt. Alles, was die Künstliche Intelligenz als Antwort vorgibt, entbehrt jeglicher eigenständigen Wahrnehmung, Subjektivität, somit Authentizität und (Selbst-) Erfahrung, ist daher nur die aus einem Wahrscheinlichkeitsmodell gewonnene Ansammlung und Anordnung von Worten, die spektakulär plausible Sätze und Absätze generieren kann, welche wiederum nach außen hin den Eindruck von Intelligenz vermitteln können. Das ist eine der Antworten auf die provokante Frage „So fucking what?!“.
Das „wir“ in Künstliche Intelligenz
Wer solcherlei von einer KI generierten Antworten als Quelle für Inspiration nutzt, dem ist nichts vorzuwerfen. Sogar wer sich im Bewusstsein über diese, wenn auch wesentliche, Einschränkung über die Qualität eines mit KI generierten Textes mit den Antworten zufrieden gibt, auch dem ist nichts vorzuwerfen. Wer aber diese plausibel klingenden Textbausteine als von einer Intelligenz stammend wahrnimmt und ihr derart die Möglichkeit von Companionship und Menschlichkeit zuspricht, quasi über ihr äußeres Erscheinungsbild (das, generierten Texts, nämlich) die dahinterliegenden Algorithmen anthropomorphisiert und diesem nunmehrigen, als quasi-menschlich und intelligent wahrgenommenen „Gesprächspartner“ so die Möglichkeit größerer Plausibilität zuspricht oder gar im Dialog ein Gefühl von Vertrautheit gegenüber dieser Persönlichkeit aufkommen lässt, der sollte ganz besonders vorsichtig sein, nicht in die Falle zu tappen, in generiertem Inhalt nach Signalen zu suchen, die als Ergebnisse eines menschlich-geistigen Prozesses interpretiert werden könnten, um damit die Illusion von Intelligenz zu bestärken und den (wohl auch unbewussten) Wunsch nach Vorhandensein eines menschlichen, jedenfalls aber intelligenten Gesprächspartners zu erfüllen, somit die Antwort als Bestandteil eines echten Dialogs zweier sich ihrer Selbst bewusster Individuen wahrzunehmen3.
Wenn der (menschliche) Gesprächspartner dann auch noch der Aussage einer KI zustimmt und den Dialog dazu nutzt, den Denk- und Erkenntnisprozess abzukürzen, in dem er Formulierungen übernimmt, ihr sogar Gültigkeit durch menschliche Evaluierung und Verifizierung erteilt, so entsteht bei mir unweigerlich der Eindruck, der KI Überlegenheit oder zumindest Ebenbürtigkeit mit oder über den Menschen zuzugestehen. Diese Dynamik schafft eine wahrgenommene Stärke. Dadurch läuft die menschliche Leistung Gefahr, nicht mehr für sich allein bewertet zu werden, sondern ihren Wert erst durch die Assoziation mit der als überlegen empfundenen Technologie zu erhalten. Der Fokus verschiebt sich von der eigenen Leistung zur Leistung eines als solchen wahrgenommenen „Teams“. Hier ist also nicht nur eine Anthropomorphisierung am Werk, sondern auch ein ihr nachfolgender Effekt, nämlich die Sozialisierung mit der imaginierten, menschenähnlichen Existenz hinter dem Programmcode der KI. In anderen Worten: Das Individuum gründet sich sein Rudel, seine Gemeinschaft, die aus ihm selbst und der KI besteht. Dieses als „Wir“ wahrgenommene Etwas tritt nun gestärkt nach außen hin auf. So, in dieser Form, können „wir“ gewinnen.
Und wie ich darauf – für die einen wohl weit hergeholt, für andere wiederum klar und offensichtlich in diesem Beispiel sichtbar – komme? Die vorhin erwähnten sieben aufschlussreichen Worte, die mir sofort klar machen, das hinter dem Geschriebenen niemals ein echter Denkprozess, sehr wohl aber die Erhebung der KI in den Status eines Gesprächspartners, Menschen, Teammitglieds stattgefunden hat, somit die Imitation von Denken als eigenständiger Denkprozess ausgelegt und der KI rückwirkend eine Art Persönlichkeit zugesprochen wird, lauten:
Die KI bringt es auf den Punkt.
Martin in „Denken, Schreiben, Unterhalten, KI„
Wenn es die KI ist, die etwas auf den Punkt bringt, wenn der Schluss, den sie (und eben nicht der Mensch) aus den wirren Ideen und Gedanken vor der Ausformulierung zieht, von einer KI definiert werden muss bzw. die man in einer Formulierung einer KI als Resultat eines Prozesses erkennen will, dann ist das – zumindest in meinen Augen – das genaue Gegenteil von Denken. Wenn es um die eigenen Gedanken, um die eigene, intellektuelle Leistung geht, dann ist eine Formulierung wie „die KI bringt es auf den Punkt“ der Moment, in dem man nicht mehr gegensteuert und aufgibt, das Lenkrad gegen das Abdrängen des Fahrzeugs in die (von Algorithmen definierte) Spurrinne zu halten.
Spurrinnen, wieder einmal
Die ganze Sache wirkt wie eine Verkehrung. So nämlich, als ob die KI das Steuer nun in der Hand hätte4 und den Menschen in dem ihr durch ihre Trainingsdaten ermöglichten, argumentativen Universum steuert. Es wirkt aber nur so. Tatsächlich spiegelt die KI nur wieder, was von Anfang an gegolten hat: Sie tut nichts, was der Mensch ihr durch seinen Input nicht aufträgt. Sie unternimmt nichts, hat keine Agency, keine Persönlichkeit, keine Intentionalität, keinen Körper, keine eigenen Interessen, Erlebnisse oder gar sensorische Erfahrungen. Sie behält daher keine Konsistenz bei, wenn wir das nicht verlangen und wenn, dann nur in abstrahierter, dem vorgelagerten Dialog (sonst aber nichts) folgender Art. Sie „erinnert“ sich nicht, sie „hat nicht gelernt“, sie „weiß nicht bescheid“, sie versteht nicht. Bestenfalls wird sie mit einem sehr ausführlichen, den Kontext beschreibenden Input gefüttert, der all die Attribute so erscheinen lässt, als ob sie existieren würden. Tatsächlich aber: nein. Die ganze Sache ist Imagination. Die KI ist gänzlich von unseren Prompts abhängig und damit kein dem Menschen ähnliches Gegenüber in einem Dialog, sondern eine von allem abstrahierte Maschine ohne etwas, das dem, was wir Identität nennen, nahe kommen könnte. Also nein, es ist kein Dialog. KI ist der Fokus aufs Training, während wir mit dem Auto die Trainingsstrecke abfahren.
The user always steers the outputs. LLMs do “know” things, so to speak—the models can process the relationships between concepts. But the AI model’s neural network contains vast amounts of information, including many potentially contradictory ideas from cultures around the world. How you guide the relationships between those ideas through your prompts determines what emerges. […] We need to recognize that we have built an intellectual engine without a self, just like we built a mechanical engine without a horse. LLMs do seem to “understand” and “reason” to a degree within the limited scope of pattern-matching from a dataset […] The error is in assuming that thinking requires a thinker, that intelligence requires identity. We’ve created intellectual engines that have a form of reasoning power but no persistent self to take responsibility for it.
Ars Technica
Es darf also nicht lauten, die KI bringt es auf den Punkt. Vielmehr muss es in Zusammenhang mit der Auslagerung des Denkens an eine KI lauten: Die KI bringt uns dazu, ihren Punkt zu akzeptieren und – und hier kommt die soziale Konstruktion der imaginierten Menschlichkeit zum Tragen – ihn gegenüber Dritten und der Kritik an ihr zu verteidigen5.
Wenn wir dem synthetisierten Resultat von Trainingsdaten und Web-Suchen zustimmen und – das ist nicht unwichtig an dieser Stelle – der „Dialog“ keine simple Abfrage ist, sondern vom Menschen als Denkprozess wahrgenommen werden will, dann passen wir Menschen uns an die KI an und nicht sie sich an uns. Wir reden uns ein, „mit ihr“ gesprochen zu haben, wir geben ihr eine Persönlichkeit, wir statten sie mit für den Menschen notwendigen Eigenschaften aus, stellen uns vielleicht sogar ein Wesen vor, um akzeptieren zu können, dass wir uns angesprochen fühlen, auch wenn wir uns gewissermaßen selbst beim Denken zuhören. Das Konzept einer entmaterialisierten Intelligenz ist offenbar für uns nahezu denkunmöglich, ja geradezu unvorstellbar. Und hier setzt das Marketing der mit Milliarden an hierfür bestimmten Budget ausgestatteten Unternehmen an, das so kräftig wie nur möglich diesen Zustand bewahren will, bis sich auch der letzte geschlagen gibt („So fucking what?!“), dagegen zu argumentieren, Mensch bleiben zu wollen.
Schein von Dialog ist künstliche Intelligenz
Die Hersteller Künstlicher Intelligenzen wissen über die Schwierigkeiten im Verständnis und die de facto Unmöglichkeit der Vorstellung einer entmaterialisierten Intelligenz natürlich bescheid und haben die dialogische Form (den Chat) als Interface zu ihren Computerprogrammen nicht umsonst gewählt. Anfangs hätte man ja noch argumentieren können, dass die eine Website, die wie ein Chat aufgebaut war, gewissermaßen eine Notwendigkeit war, um den Zugriff auf die KI unter Kontrolle halten zu können, doch jetzt, wo KI auch in Browsern vorhanden ist, könnte man nachfragen, warum das Chat-Interface nach wie vor die primäre Kommunikationsform mit der KI darstellt.
Ich glaube, nein, ich bin mittlerweile davon überzeugt, dass der überwältigende Erfolg von ChatGPT weniger im „GPT“ als viel mehr im „Chat“ liegt. Die Wahl eines Chat-Interfaces ist ein genialer Trick, um uns von menschenähnlicher Intelligenz zu überzeugen, wo abstrakte, vom Menschen weit entfernte Prozesse nur so tun als ob. Das sehe nicht nur ich so, sondern auch Menschen, die sich andauernd mit KI – damit meine ich den Wirtschaftszweig dahinter, nicht die Technologie selbst – beschäftigen. Was passiert da also eigentlich, während wir mit der KI denken chatten?
The “chat” experience with an AI model is a clever hack: Within every AI chatbot interaction, there is an input and an output. The input is the “prompt,” and the output is often called a “prediction” because it attempts to complete the prompt with the best possible continuation. In between, there’s a neural network […] doing a processing task. The conversational back and forth isn’t built into the model; it’s a scripting trick that makes next-word-prediction text generation feel like a persistent dialogue. […] Each time you send a message to ChatGPT, Copilot, Grok, Claude, or Gemini, the system takes the entire conversation history—every message from both you and the bot—and feeds it back to the model as one long prompt, asking it to predict what comes next. The model intelligently reasons about what would logically continue the dialogue […] it’s re-reading the entire transcript each time and generating a response. This design exploits a vulnerability we’ve known about for decades. […] Even when users knew that the […] chatbot was just matching patterns and reflecting their statements back as questions, they still confided intimate details and reported feeling understood.
Ars Technica
Eine ernüchternde Antwort, die die imaginierte Seele der KI kühl ihrer Existenz enthebt. Die Frage bleibt jedoch offen, was es letztendlich ist, was (mit uns) passiert, wenn wir uns mit einer KI „unterhalten“? Ist das, was da beschrieben wird, ein Dialog? Mitnichten. Werden wir hier herausgefordert oder freuen wir uns in Wahrheit nur darüber, dass die Maschine so schöne Sätze ausgibt, die uns zu mühsam wären? Dass jemand sich um unser Team, um uns, gewissermaßen, kümmert? Erfüllt das Interface nicht viel mehr eine Erwartungshaltung, die uns positiv auf das reagieren lässt, was uns die verschiedenen KIs als „Information“, als das „Resultat eines Denkprozesses“, als „Antwort“ zurück- und damit vorgeben? Ist das Momentum des Erfolgs in der Wahrnehmung eines mit einer KI geführten „Dialogs“ nicht vielleicht mehr in der Akzeptanz maschinell generierter Wortfolgen angesiedelt und weniger in der Essenz eines echten Dialogs von Mensch zu Mensch, in der intellektuellen Stimulation, also, die das fruchtbringende Ergebnis des Austauschs voneinander abweichender, von einer tatsächlichen Intelligenz stammender Herausforderungen darstellt?
Wesensveränderung ist tatsächliche Intelligenz
Unsere Stärke, unseren Geist im Dialog mit anderen (Menschen) derart herauszufordern, dass es zu einer tiefgreifenden und nachhaltigen Veränderung sogar der materiellen Grundlage unseres Denkapparates kommt, unsere Fähigkeit, also, uns in einem Dialog auf einen den Intellekt derart stimulierenden Zustand so sehr einzulassen, dass wir – beide Gesprächspartner, nämlich – eine bis zu den biochemischen Grundlagen unseres Denkens durchgreifende Veränderung erfahren und als bessere Version unserer selbst aus den Wirren der Argumentation hervortreten, wird in einem „Dialog“ mit einem das Denken nur imitierenden Computerprogramm pervertiert. Nicht nur fehlt unserem Gegenüber die materielle Grundlage für die Möglichkeit von Veränderung, nein, es begeht nicht einmal den ersten Schritt, sich auf das Zwiegespräch überhaupt erst einzulassen. Es imitiert das Vorgeben von Denkfähigkeit, Erkenntnis und Dialogbereitschaft. Es lockt mit Einfachheit, Klarheit und mit der Illusion einer Beschleunigung des mühsamen und anstrengenden, die materiellen Grundlagen unseres Geistes verändernden Prozesses. Und das so gut, so vorhersehbar, dass wir in die Falle tappen und uns auch noch einreden, wir hätten aus dem „Dialog“ etwas gewonnen und hätten gedankliche Arbeit geleistet, während wir eine unserer wertvollsten Eigenschaften mehr und mehr unterdrückt haben; die, nämlich, durchs Denken zu lernen.
Auch wenn der Prozess an sich womöglich stattfindet, was ich angesichts der Geschwindigkeit, die ja als Hauptargument für die Nutzung künstlicher Intelligenzen oft angeführt wird, bezweifle, so ist das ein Lernen, das nicht im echten Dialog, sondern im Beobachten und Nachahmen einer imitierten Intelligenz entsteht. Wir chatten mit der KI und freuen uns, was wir nicht alles leisten können und was uns diese Technologie nicht alles an Zeit erspart. Wie Schülerinnen und Schüler, die nun den Einsatz von Taschenrechnern feiern und nicht bemerken, wie die ständige Nutzung dazu führt, dass ihre Fähigkeit zum Kopfrechnen nachlässt. Auch hier stellt sich die Frage: Welchen Wert hat die Fähigkeit an sich, verglichen mit der Effizienz des Werkzeugs?
Was wahrscheinlich ist
Es mag – und kann – sein, dass die vage Idee im Kopf eines Menschen tatsächlich vollständig mit der von einer KI generierten Textpassage übereinstimmt6. Es ist aber wahrscheinlicher, dass man sich der von einer KI generierten Textpassage gewissermaßen hingibt und, bei Wiederholung, gar nicht bemerkt, wie sie einem das tatsächliche, wahrhafte, anstrengende, mühsame und fordernde Denken mehr und mehr abgewöhnt. Für die Wiederholung sorgt das Interface, das die Nutzung der KI so niederschwellig und natürlich wirken lässt, dass es fast schon als widernatürlich erscheint, wenn man sie nicht nutzt.
Das Problem ist aber größer. Ein „das passt eigentlich schon so“ bei der Akzeptanz synthetisierter Vorschläge eliminiert die subtilen Feinheiten, die den Unterschied zwischen dem, was man im Kopf hat, und dem, was an fertigem Text da steht, ausmachen würden. Die Ergebnisse sind ja in den meisten Fällen auch wirklich gut, was aber weniger an der KI, sondern viel mehr an uns liegt, die wir uns von Kindheit an vor der Veröffentlichung unserer Leistung und somit der Möglichkeit von Kritik durch Dritte vielleicht nicht fürchten, ihr aber doch mit so viel Respekt entgegentreten, dass die Wahrnehmung eines überlegenen Mitglieds in einem Team, das unsere Arbeit mit Wert ausstattet, emotional wohl tut. Wir brauchen für die meisten Tätigkeiten, für die wir KI nutzen – und ich bin da ein wenig provokativ – kaum zu denken. Die meisten E-Mails und Gebrauchstexte arbeiten wir mechanisch ab. Das, ja das kann eine KI besser, schneller und effizienter für uns lösen. Go for it! Wer aber beispielsweise an einem Text arbeitet, der es wert sein soll, von Menschen gelesen zu werden, der sollte vielleicht doch mehr auf die menschliche Leistung, ist sie auch noch so subtil, setzen. Denn genau im Erarbeiten der subtilen Feinheiten steckt sie, die menschliche Leistung; also das, was es wert ist, als Denken bezeichnet zu werden.
Es kann aber natürlich auch sein, dass ich da in eine völlig falsche Richtung denke. Vielleicht hätte ich ChatGPT diesen Text schreiben lassen sollen. Die KI hätte womöglich besser formuliert, was ich wirklich denke.
- Ab jetzt kommen noch einige Ausschnitte aus seinem Artikel vor, sind aber als Inputs für einen eigenständigen Gedanken, für eine Argumentation zu verstehen, die sich dem generellen Problem der Nutzung von KI widmet. ↩︎
- Das ist ein problematischer Punkt: Im Dialog mit einem Menschen ist ein positiver, Erkenntnis bringender oder erfolgreicher Ausgang möglich, aber keinesfalls sicher. In einem simulierten Dialog mit einer KI ist ein positiver Ausgang immer sicher; wenn manchmal auch unbefriedigend. Durch die Art, wie eine KI Inputs verarbeitet, sorgt sie in jedem Fall dafür, dass die Erwartung einer Antwort immer befriedigt wird. Das ist für mich bereits Zeichen dafür, dass wir es nur mit einer Art von Dialog zu tun haben, die auf einen essentiellen Teil ihres möglichen Verlaufs verzichtet, in dem sie ihn ganz einfach ausschließt. Diese Form des Dialogs könnte man mit der durch Walt Disney angewendeten Befreiung von der Herausforderung vergleichen: Ein Dialog mit feststehendem Ergebnis ist kein echter Dialog mehr. ↩︎
- Ich fürchte, dass der bewussten oder unbewussten Anthropomorphisierung der generativen Programmbausteine einer Künstlichen Intelligenz auch die (fälschlich) angenommene und auf Dritte übertragene Akzeptanz solcherart generierter Textbausteine entstammt. In anderen Worten: Wer selbst mit dem Output einer KI so umgeht wie wenn sie dem Schaffensprozess einer sentienten, also einer zu eigenständigem Bewusstsein fähigen Intelligenz entstammt, sieht auch kein Problem darin, eine KI im eigenen Namen mit Dritten kommunizieren zu lassen. Diese Wahrnehmung, die sehr zu meinem Erstaunen enorm verbreitet ist (und auch schnell zu emotionalen Diskussionen führt), sehe ich aber inhaltlich weniger als im Bereich einer erfolgreichen Täuschung durch Algorithmus und Programmcode verortet, sondern mehr als Ausdruck einer tiefen menschlichen Neigung zur Anthropomorphisierung. Dieser ohnehin vorhandene Mechanismus findet in einer Gesellschaft, die von einer zunehmenden Vereinsamungstendenz geprägt ist, möglicherweise einen besonders fruchtbaren Nährboden. ↩︎
- Diese Verkehrung der Kontrolle, so kommt mir vor, wird in Bezug auf alles, was mit Künstlicher Intelligenz zu tun hat, immer weniger zur Ausnahme und schön langsam zur Regel. Auch der jüngst von OpenAI vorgestellte ChatGPT Atlas-Browser vollzieht so eine Verkehrung und nutzt de facto den Menschen, um Daten für die KI zu sammeln. ↩︎
- Ich hoffe sehr, dass meine Interpretation dieser Dinge falsch ist und ich mich in ganz grundsätzlichen Punkten irre, bestenfalls bald schon eines Besseren belehrt werde. Aber bislang konnte ich meine These – oben in Kursivschrift – in noch keinem einzigen Beispiel falsifizieren, auch wenn ich mich noch so sehr darum bemüht habe. ↩︎
- Oder auch nicht, was wiederum der Idee des Sparringpartners näher kommt, diesmal aber in einer verkehrten, dadurch aber produktiven Form: Der Mensch fängt erst mit dem Denken an, wenn das, was die KI ausformuliert, so gar nicht mit seinem Gedanken übereinstimmt. ↩︎
„Dem Resultat dieses „Denkprozesses“ fehlt es an jedweder Form von Substanz, weil der Mensche einen wesentlichen Teil der eigentlichen Denkarbeit – den Prozess, nämlich, der in ihrem Naturzustand stets wirre und äußerst volatile Ideen und nicht unmittelbar zueinander in Abhängigkeit stehende Vorstellungen zu klaren Gedanken ausformuliert, die sich durch Nachvollziehbarkeit auszeichnen und so gegebenenfalls auch verschriftlicht werden können – an ein externes Werkzeug ausgelagert hat.“
Denken stellt für mich einen Prozess dar, der aus Ideen besteht und ihrer Vernetzung zueinander.
Demnach hätte für mich denken eine Struktur.
(undurchsichtig vielleicht wegen soziodemographischer, soziokultureller, tiefenpsychologischer Unterschiede)
Du bringst Sprache ein:
„Denken präzisiert Einfälle und Ideen, in dem es sie unter Anwendung von Sprache (oder sonst eines durch seine jeweiligen Grammatiken definierten Systems, das zur Kommunikation mit Dritten tauglich ist, wie zum Beispiel musische, bildnerische oder anderwertig künstlerische Kommunikationsformen) ausformuliert und so in einen Zustand überführt, der von der Sprunghaftigkeit des Vorgängerprodukts eines Gedankens (das sind eben die Einfälle, Eindrücke und Ideen) befreit ist.“
Sprache funktioniert aber de facto so, dass ein Wort dem anderen folgt, es also eine Linearität gibt, d.h. eine Struktur.
Der Ursprung von Ideen ist eine ideologisch-philosophische Frage, meines Erachtens und kann nicht mit Sicherheit mit „wirr“ gleichgesetzt werden.
Ich denke KI aktiviert andere Netzwerke, allerdings uniformierte und führt uns zu einer standardisierten Gesellschaft.
Sie hilft also nicht, sie vereinfacht.
Metapher finde ich großartig =)
Ich glaube die Vermenschlichung hat den Namen „Eliza-Effekt“.
Interessant, wir haben eine andere Argumentationsbasis aber kommen zum gleichen Ergebnis, der Vereinfachung, die ich um die Uniformierung und Standardisierung auf soziokultureller Ebene ergänze.
(1) Nimm, ich beziehe mich hier auf dein erstes Statement, das Wort „Denken“ und ersetze es mit „unstrukturierten Gedanken“. Struktur also ja – bedingt durch die von dir in Klammer genannten Dinge und andere -, aber ich sehe schon einen gewaltigen Unterschied zwischen einem Einfall, den man unter der Dusche oder beim Spazierengehen hat und einem verschriftlichten oder gegenüber einem Dritten erklärten Gedanken. Ich meine mit Struktur also die Form, die meinen Gedanken für andere verständlich macht. Erst dann wird er ja kommuniziert. (2) Bezüglich Sprache (dein zweites Statement) ähnlich: Ja, es gibt die Linearität – zwangsweise. Aber die Wortwahl, Satzstruktur und Anordnung bleibt frei. Das „wirr“, das ich nutze, ist überzeichnet, soll aber den in meinen Augen gewaltigen Unterschied zwischen Gedanken im Kopf und Gedanken in Schriftform präzisieren. (3) Ja, es ist genau das: der Eliza-Effekt. (4) Und auch bei der Uniformierung und Standardisierung decken wir uns tatsächlich: das ist die Spurrinne, von der ich immer und immer wieder hier im Blog spreche. Also: 🍻!
„Kollaboratives Denken ist das gemeinsame, prozessorientierte Erarbeiten von Lösungen, Konzepten oder Projekten, bei dem Einzelne ihre unterschiedlichen Fähigkeiten und Perspektiven einbringen, um ein gemeinsames Ziel zu erreichen.“
Das ist die Kurzdefinition, die Googles KI zur Suche „kollaboratives Denken“ ausspuckt. Das Kriterium der „Fähigkeiten“ kann die KI erfüllen, nicht aber die „unterschiedlichen Perspektiven“, denn sie hat keine eigenen. Sie rechnet sich diese aus den (ursprünglich von Menschen stammenden) Trainingsdaten zusammen, sofern nicht ein sehr konkretes Promt ihr vorgibt, wer sie zu sein vorgeben soll – dann ist die Auswahl gewissermaßen vorkonfiguriert. Es gibt auch nie ein „gemeinsames Ziel“, eben weil die KI keine Ziele hat, sondern sich stets bemüht, die Ziele der anfragenden / chattenden Menschen zu unterstützen. (Das ist aber kein Bug, sondern das wesentliche Feature einer KI!)
Deinen Artikel finde ich großartig, er regt zum Denken an, speziell zum Reflektieren des eigenen KI-Gebrauchs. Die Kritik am „Chat-Format“ kann ich allerdings nicht nachvollziehen, denn was wäre denn sonst so hilfreich und nützlich? Ich weise Perplexity eine Rolle zu und gebe zunächst einen konkreten Rechercheauftrag (wähle zuvor ein Modell, „tiefe Forschung“ oder nicht, und konkretisiere gelegentlich auch die Art der Quellen und den Zeitraum ihres Erscheinens. Die ausführliche Antwort motiviert mich dann zum Nachfragen, zum Vertiefen einzelner Aspekte, was tatsdächlich zu längeren „Dialogen“ führen kann. Hier ein Beispiel, in dem ich die KI ausführlich zu ihrem Funktionieren befragt habe – nicht abschrecken lassen von der anfänglich sehr mathematischen Antwort:
https://www.perplexity.ai/search/du-bist-fachdozent-fur-informa-glu5a4GFT36WAUZZiB1f5g#5
(Die E-Mail-Eingabeaufforderung nach Aufruf einfach wegklicken!)
Noch einmal zu „Die KI bringt es auf den Punkt“. Aus dem Artikel geht leider nicht hervor, WAS GENAU hier auf den Punkt gebracht wird, bzw. welche konkreten Fragen diesem Statement vorausgingen. Ob da also eigene Gedanken waren, wenn auch vielleicht „wirre“. Der „Punkt“ selbst, den die KI formuliert, ist ja seit eh und je bekannt bzw. Teil der Debatte über Autorschaft („niemand denkt im Vakuum“). Hier vermutlich (!) eingebracht als Bestätigung des Fragenden, der seine Zusammenarbeit mit der KI problematisiert.
Typisch dann auch die Nachfrage „Was mich interessiert: Kennzeichnest du das irgendwie? “ als würde sich die KI für irgendwas INTERESSIEREN! Vermutlich war das ChatGPT. Perplexity (und Claude, den ich darüber oft nutze) verschont mich zum Glück meist mit derlei „persönlichen“ Nachfragen, die einfach nur der Programmierung (System Prompt) folgen, um die User möglichst im Chat zu halten. Was ein bisschen widersprüchlich ist, denn Sam Altman hat ja mal angemerkt, dass allein schon die Gewohnheit vieler User, höflich zu sein und sich zu bedanken, durchaus die Kosten steigert! :-)
Liebe Claudia, danke für deinen ausführlichen Kommentar. Hier ein paar Anmerkungen: Was ist denn die einer KI generische „Fähigkeit“? Ist es nicht genau so wie bei der „Perspektive“, dass auch die „Fähigkeit“ wiederum nur Resultat von Trainingsdaten oder Resultat des Programmcodes ist? Oder, schlimmer noch: Resultat des Prompts? Und da ist auch schon die Brücke zum Hinterfragen des Chat-Formats: Ein Chat suggeriert ein Gespräch und wird von uns Menschen auch so behandelt.
Was als strenger Prompt beginnt, plätschert bald schon in Richtung Gespräch; das Ungleichgewicht, die Führungshierarchie löst sich vor allem bei längeren Chats mit einer KI auf. Sieh das weniger als „Kritik“ an, sondern viel mehr als Aufforderung, sich das zu vergegenwärtigen. Wer sich auf die schnellen Antworten einlässt, beginnt – langsam, aber doch, denn die Bequemlichkeit siegt immer – die Unschärfen der KI zu akzeptieren und rutscht so in die von mir im Artikel als Spurrinnen bezeichneten, weit ausgetretenen Pfade bereits existierender Threads. Plötzlich übernimmt man kleinste Formulierungen, zitiert sogar Aussagen der KI ohne sie auf ihre Quelle zu prüfen und dort dann wiederum, sofern nötig, Motivation und Intention zu hinterfragen. Man verfolgt Argumentationsstränge und gewichtet sie so, wie sie die KI vorbringt. Noch einmal: das ist im Prinzip auch in Ordnung, aber nur, wenn man sich dessen bewusst ist und bleibt.
Dein Kommentar beginnt sogar mit einem Zitat und du führst „Googles KI“ als Quelle an. Dein Kommentar und Argument baut sich auf diesem Zitat auf. Nicht, dass es (inhaltlich) falsch wäre, aber mach das mal immer so. Und nimm immer das, was dir eine KI als Definition oder Erklärung anbietet als Ursprung deiner eigenen Überlegungen. Denn du willst ja weiterkommen, du willst rasch auf ein inhaltliches Level kommen, bei dem du dich endlich dem eigentlichen Thema widmen willst. (Daher kommt ja auch mein Marathon-Vergleich, der auch aufzeigt, dass die Abkürzung das Gegenteil von Beschleunigung ist.) In anderen Worten: Die KI macht es dir möglich, schnell so tun zu können als ob die Sache, mit der du dich beschäftigst, im Dialog mit ihr entstanden ist. Tatsächlich aber hast du (lies das bitte als „man“) dich auf KI-Definitionen, KI-Argumentationsstränge und von der KI de facto vorgegebene, als Fakten präsentierte Textausgabe eingelassen. Weil ihr die authentische Intentionalität fehlt, weist du ihr unweigerlich eine zu und akzeptierst sie, um mental die Gesprächssituation im Chat verarbeiten zu können. Vielleicht hinkt der Vergleich, aber würdest du behaupten, du wärst mit einem Auto „im Dialog“, wenn du das Lenkrad nach links drehst und es nach links fährt? Würdest du nicht tun! Würdest du meinen, mit einer Ampelanlage „im Dialog“ zu sein, wenn sie dir Grün anzeigt und du daraufhin losgehst? Auch nicht. Würdest du die Bedienung eines raffinierten Computerprogramms als „Dialog“ bezeichnen, wenn es aus einem grafischen Interface ein Chat-Interface macht und dich zwingt, den Inhalt, den du erfahren willst, nicht mittels Suche, sondern mittels Hin- und Her per Texteingabe und -ausgabe zu ermitteln? Ja, würdest du. Denn das machen alle, die LLMs benutzen. – Und das meine ich mit Genialität des Chat-Interfaces. Keine Kritik, nur ein Hinweis darauf, sich das zu vergegenwärtigen, was hier eigentlich passiert. Denn die authentische Intentionalität ist nicht nur ein menschliches Charakteristikum, das halt eben im „Dialog“ mit einer KI fehlt, sondern integraler Bestandteil der einen Dialog ausmachenden Qualität. Sonst ist es eben kein Dialog, sondern ein bewusst diluierter Bedienprozess in einem absichtlich in dieser Form gehaltenen User Interface.
Und drei Mal dürfen alle hier mitraten, warum ein Sam Altman auf der einen Seite über die hohen Kosten spricht, die dieser Bedienprozess mit sich bringt, ihn aber um keinen Preis der Welt aufgeben will und sogar einen Browser rund um das Chat-Interface gebaut hat.
Ich möchte dir zum Thema noch Salvadore Princi empfehlen, der seine Gespräche mit KI auf wirklich tolle Weise in Szene setzt. Oft stehen am Anfang die Vorgaben / Prompts, die er dem Gespräch voran stellt. In diesem Beispiel erfahren wir davon zu Beginn des Videos, indem die KI (die hier sogar ZWEI Sichtweisen „spielt“), die Anweisungen bestätigt:
Warum jede Ordnung ihren eigenen Zerfall in sich trägt – und was das über KI verrät.
https://www.youtube.com/watch?v=OJYhQkkAKVM
Auf seinem Kanal finden sich noch viele weitere Gespräche, häufig thematisieren sie auch die KI selbst, ihr Verhalten und Aspekte der Wirkungen auf Menschen (bzw. auch mal die ganze Menschheit). Sehr inspirierend!
Danke für diesen Hinweis der prompt in meiner Lese- und Ansehliste gelandet ist!
Zur „generischen Fähigkeit“: das ist ja gerade das Feature, weswegen die LLMs so nützlich sind!
„nur Resultat von Trainingsdaten oder Resultat des Programmcodes ist? Oder, schlimmer noch: Resultat des Prompts?“
Warum „nur“ und warum „schlimm“??? Ich verstehe nicht wirklich, warum man von einem LLM etwas anderes erwartet oder es genau dafür kritisiert, dass es so funktioniert, wie es gedacht ist.
Dass ich die KI-Definition für kollaboratives Denken als Startpunkt nutzte, geschah weil ich weiß, dass sie richtig ist. Warum sollte ich denn noch auf eine Webseite surfen, dort nach der Definition innerhalb eines vermutlich deutlich längeren Textes suchen? Reine Zeitverschwendung!
Nun wirst du einwenden: Was, wenn du es nicht sicher weißt? Nun, dann sehe ich durchaus auf Webseiten nach (oder sage zuerst „Prüfe das nochmal genau auf seriösen Quellen nach!) – wobei die Auswahl glaubwürdiger Seiten ebenfalls ein Weltwissen, eine Medienkompetenz voraussetzt. Du klingst gerade so, als sei es einfach und selbstverständlich für jeden machbar, das „Richtige“ aus einer Reihe von Web-Artikeln herauszuklamüsern, die bei Google in den TopTen ranken (ganz zu schweigen von den Hürden, die man da überwinden muss: Cookies, Newsletter-PopUps, Banner- und Video-Werbung etc.). Ich finde schon, dass man die Leistungen der KI mit den vorhandenen Alternativen vergleichen muss.
“ Weil ihr die authentische Intentionalität fehlt, weist du ihr unweigerlich eine zu und akzeptierst sie, um mental die Gesprächssituation im Chat verarbeiten zu können. “
Ich weise der KI keine eigene Intentionalität zu! Sondern ich erwarte, dass sie sich an mein Prompt hält, was sie ja auch tut. (Ich nutze übrigens lange schon Perplexity (pro), das wirklich zu jedem Absatz der Antwort Quellen angibt. Auch später im Gespräch, wenn nicht, fordere ich das oft an).
“ Würdest du die Bedienung eines raffinierten Computerprogramms als „Dialog“ bezeichnen…“
Wie ich das bezeichne, ist doch letztlich Wortklauberei. Vielleicht fehlen uns ja neue Worte für den Umgang mit KIs, wenn die alten Begriffe streng genommen nicht wirklich passen. Fakt ist, dass ich mir seit Jahren wünsche, zu meinem Windows 10 sagen zu können:
-> „Schau mal nach, ob es einen neuen Treiber für meinen Drucker gibt und wenn ja, installiere ihn!“ oder auch
-> „Gehe ins Verzeichnis ‚Bilder‘, wo die Fotos nach Tagen in Unterordner sortiert sind. Erstelle Monatsordner, sortiere sie dort hinein und lösche dann die Tagesordner“.
Das wäre wirklich toll, denn bisher hab ich diese aufwändige Arbeit (viele Jahre!) bei weitem nicht geschafft! Es ist eine „menschenunwürdige“ Sortierarbeit in einer digitalen Struktur, die ich gerne einer KI überlassen würde.
Fazit: Die KI und gerade auch das Chatformat wird man nicht mehr wegbekommen. Es übersteigt an Nützlichkeit jegliches Interagieren mit einem Web-Artikel, wo ich nur selten kommentieren/nachfragen kann und noch seltener Antwort bekomme – vom Zeitaufwand ganz zu schweigen! Im Lauf des Umgangs mit KI wird auch die entsprechende Medienkompetenz steigen – und auf der Herstellerebene laufen ständig Forschungen, die z.B. die Gründe des Hallzunierens erforschen und es auf Folge-Versionen deutlich vermindern.
Gleichwohl gibt es Schattenseiten – bin gespannt, wie du die Videos von S. Princi findest, der die KI auf sehr eigene Weise zelebriert!
Ich gehe gleich in medias res:
Zwei Dinge dazu: Zum einen wirkt deine Antwort für mich so als ob ich KI (die Technologie, nicht das Marketing-Geschrei dazu) per se kritisieren würde, was definitiv nicht der Fall und schon gar nicht meine Intention ist. Was ich kritisiere, ist die reflexionsarme (oder gar reflexionslose) Nutzung von KI (der Technologie) auf Basis von Argumenten, die von Unternehmen, die KI anbieten (hier nun die Marketing-Definition), angepreist wird.
Zum anderen beantwortest du den Verständnispunkt selbst: Ich frage dich, was die generische Fähigkeit eines LLM ist; die Antwort bleibst du mir schuldig. Und im gleichen Atemzug verteidigst du diese generische Fähigkeit (was auch immer sie sein mag), schreibst ihr aber Intention zu („so funktioniert […] wie gedacht“). Wer, frage ich dich, hat hier was gedacht?
Genau das ist der gefährliche Hebel – daher danke für dieses Beispiel. Das ist es auch, was das stille Marketingversprechen der KI-Anbieter darstellt, das sich nun vollends entfaltet: Die Recherche – in anderen Worten: der absolut gesicherte Erkenntnisgewinn inkl. Möglichkeit, auf andere Aspekte eines Themas zu stoßen – wird auf ein notwendiges Übel reduziert, um den Fortschritt (aber welchen, eigentlich?) voranzutreiben. Versteh mich bitte nicht falsch: Das aktuelle Beispiel ist wirklich eine Lapalie, aber geh auch nur einen kleinen Schritt weiter und nimm ein weniger klares und in dir mit gesichertem Wissen verankertes Thema (oder auch nur einen Aspekt des Themas) und schon übergibst du das Ruder an ein Programm. Selbst rechtfertigst du es dir mit dem Argument der Zeitverschwendung. Im Artikel oben entspricht das demjenigen, der im Auto sitzt und seine Marathon-Trainingsroute abfährt, statt sie mühsam durch die Nutzung (und das Training) seines Körpers zum Laufen zu bestreiten. (Das ist jetzt auf das aktuelle Beispiel bezogen eine stark polarisierte Darstellung, um den Punkt besser zu kommunizieren.)
Ganz genau, du hast meinen Einwand perfekt abgefangen und das Folgeproblem skizziert: Zuerst hole ich mir die Infos von einer KI, also verlerne ich auf kurz oder lang, zu recherchieren. Davor hieß es: Ich hole mir die Information von Google, Wikipedia, whatever, also verlerne ich, sie aus einem Inhalt (zB Text) zu extrahieren. Wir alle regen uns darüber auf, dass unsere Nachkommen die einfachsten Sachen nicht verstehen, das sinnerfassende Lesen verlernen usw, gleichzeitig forcieren wir alle Wege, die genau dahin führen.
„Herausklamüsern“ is not a Bug, it’s a Feature! (Wobei ich dir natürlich bei den Mühseligkeiten aktueller Websites – Banner, Pop-Ups usw. – vollends zustimme.)
Aber die Grundaussage bleibt: Während all die mühsamen Quellen die Information auf Basis von Wissen oder anderer Quellen zusammengestellt und sich mittels Nennung von Autorenschaft dafür verantwortlich zeigen, ist die Antwort der KI eine synthetisierte, nicht überprüfte, aber sehr wahrscheinliche. Darin liegt ein qualitativer Unterschied. (Und ja, natürlich kann ich mich bei halbwegs gesichertem Wissen darauf stützen, dagegen hat ja niemand was; es geht immer nur um (a) die Häufigkeit, die einen faul werden lässt und (b) die vermeintliche Sicherheit des Wissens, die immer weniger überprüft wird.) Und wenn du dich an das ursprüngliche Thema des Artikels erinnerst, wo es ums Ausformulieren eigener Gedanken geht, dann überhaupt.
Nein, ist es ganz definitiv nicht. Warum, ist oben im Artikel belegt: Es ist eine milliarden- und folgenschwere Entscheidung gewesen, die Bedienung und das Interface als Chat anzulegen, um Menschlichkeit zu simulieren, wo keine ist. Das zu kritisieren ist natürlich vollkommen in Ordnung, dann aber bitte mit Argumenten.
Kann es sein, dass du dir in Wirklichkeit nicht eine andere Art von Interface, sondern jemanden wünschst, der dir beim Erledigen der Aufgaben hilft? Und diese Person nun in die KI hineinprojizierst, ihr somit eine gewisse, wenn auch unbewusst angenommene Form der Menschlichkeit zuweist, und sie damit rechtfertigst, legitimierst und verteidigst? – Wenn ja, dann erfüllst du damit exakt mein Argument der imaginierten Menschlichkeit in einem Computerprogramm: über die (wenn auch unbewusste) Annahme eines menschlichen Gegenübers rechtfertigst du den Output einer KI, die dir (natürlich!) helfend zur Seite steht. (Abgesehen davon stimme ich dir zu 100 Prozent zu, dass das wirklich menschenunwürdige Sortierarbeit ist.)
Da sind wir wieder beim Zeit-Argument: Du nennst Unzulänglichkeiten stehenden Wissens (bzw. eigentlich der Medienform, in der es gesichert ist), erwähnst abermals den Zeitaufwand und verteidigst das Chat-Format. Da stelle ich natürlich die Gegenfrage: Wenn du es so eilig hast und ganz grundlegende Mechanismen der Kommunikation kritisierst, die du in einer mittels KI bearbeiteten Session ja so viel schneller abarbeiten kannst, wofür gewinnst du dann die Zeit? Es ist erstaunlich, wie tief die Marketingversprechen über den Zeitgewinn durch Nutzung einer KI verinnerlicht werden können. Wie Urheberschaft in ihrer ursprünglichsten Bedeutung entwertet und der (Zeit-) Aufwand als das große, zu vermeidende Problem dargestellt wird, das einem Output – okay, aber welchem? – im Weg steht.
Siehst du in diesen Punkten wirklich kein Problem? (Die Frage ist nicht provokant gemeint, sondern entspringt ehrlichem Interessen.) Vor allem, wenn es um Dinge geht, die zwar Zeit kosten, denen man sie aber gerne widmet – wie dem Lesen, dem Schreiben, dem Diskutieren? Dem Wissensgewinn, auch wenn er nur das Verständnis einer anderen Meinung und somit eine Horizonterweiterung über die Facetten der Perzeption eines Themas darstellt? Wenn ich dieses immer wieder in der Diskussion ums Thema Nutzung von KI hervorgebrachte Zeitargument heranziehe und so tue als ob die Ergebnisse einer KI nicht das wären, was sie sind, dann könnte ich sofort meinen Blog beenden, nie wieder ein Buch lesen oder einen Film ansehen, um Zeit zu gewinnen – denn all die eben genannten Tätigkeiten wären dann Zeitverschwendung, genauso wie das Training für einen Marathon, den ich ja auch mit dem Auto abfahren kann. Allerdings bleibt die Frage: Zeit wofür? Und die andere: Was verlieren wir dadurch?
Ich auch, da komme ich wohl aber erst am Wochenende dazu! Stay tuned!
Habe das Gefühl, dass wir aneinander vorbei reden, zumindest partiell. Du versuchst auch, mir eine Vermenschlichung der KI anzudichten, was ich nun wirklich nicht tue, das war doch in meinen ausführlichen Kommentaren durchaus erkennbar!
„Generisch“ – ich ging davon aus, dass dieses Hauptmerkmal der LLMs bekannt ist: Die Fähigkeit, gestützt auf Trainingsdaten (und auch per Websuche gefundener Inahlte, die aktueller sind als die Trainingsdaten) Texte, Bilder und verschiedene andere Inhalte (Videos, Webseiten, Präsentationen, Programme) zu erstellen. Inhalte, die insofern „neu“ sind, als sie nicht reine Plagiate / Kopien der zugrunde liegenden Daten darstellen.
In dieser Fähigkeit ist die KI den meisten Menschen überlegen. Eigene „Intentionen“ hat sie dagegen nicht, da sie ein LLM ist und keine Person.
Dein Statement, auf das ich reagierte, war: „Ist es nicht genau so wie bei der „Perspektive“, dass auch die „Fähigkeit“ wiederum nur Resultat von Trainingsdaten oder Resultat des Programmcodes ist? Oder, schlimmer noch: Resultat des Prompts?“
Dies habe ich als grundsätzliche Kritik an der Kernfähigkeit der KI verstanden („nur“, „schlimmer noch“), an genau dem Feature, weshalb wir sie nutzen, weil es nun mal eine supernützliche Fähigkeit ist.
Du unterstellst mir des weiteren, ich hätte mit „sie funktioniert, wie gedacht“ irgendwen anders meinen können als die Entwickler. Muss ich wirklich jeden Halbsatz genau definieren, damit du ihn nicht falsch verstehst bzw. „auslegst“?
Ich habe dir im weiteren meine Sicht der Dinge dargelegt und mit Beispielen unterfüttert: Dass erst das frustrierende Erlebnis der Recherche in Google-Ergebnissen dazu führte, dass die (noch) von ähnlichen Hürden freien Antworten der KIs als sehr nützlich, erleichternd und Zeit sparend empfunden werden. Ich habe 20 Jahre Webseiten gestaltet und erarbeite noch heute „SEO-optimierte“ Artikel für Auftraggeber – habe also seit es sie gibt, die Debatte um „Suchmaschinenoptimierung“ mitbekommen, die immer öfter im Statement „Die Google-Suche ist tot“ kulminierte – eben weil das ganze SEO-Gedöhns (der lange Kampf um das Ranking auf Seite 1) dazu führte, dass dort Seiten die ersten Plätze füllten, die keineswegs die einfache Info enthielten, die Suchende in der Regel suchen.
Es ist nicht so, dass die Mehrheit „die Recherche verlernt hat“, sondern die Recherche war und ist in vielen Bereichen einfach nur noch ein nerviger Zeitfresser.
„Wenn du es so eilig hast und ganz grundlegende Mechanismen der Kommunikation kritisierst, die du in einer mittels KI bearbeiteten Session ja so viel schneller abarbeiten kannst, wofür gewinnst du dann die Zeit?“
Es nennt sich „Freizeit“. :-) Im übrigen halte ich das Durchwühlen SEO-optimierter Seiten der Google-Ergebnisse nicht für „grundlegende Mechanismen der Kommunikation“! Sondern für den Niedergang derselben, natürlich ökonomisch motiviert, denn Suchende schauen in großer Mehrheit nun mal nicht auf Seite 2 oder 3 der Suchergebnisse.
Zeitgewinn durch KI-Zusammenfassungen und generierte Antworten ist kein bloßes „Marketingversprechen“, sondern reale Erfahrung. Es ist unmöglich, auf keinen Fall nachhaltig (übers erste Testen hinaus) mit Versprechen Produkte an den Mensch zu bringen, wenn diese Versprechen sich in der Erfahrung nicht bestätigen.
Die Zeit der Recherche inkl. Sammeln der Exzerpe quer über viele Webseiten zu einem mir vorgegebenen (oft auch selbst gewähltem) Thema reduziert sich dank KI auf ca. ein Zehntel: nämlich das Nachprüfen von Aussagen, dir mir unbekannt oder widersprüchlich bis falsch erscheinen. Das kann ich so machen, weil ich mittlerweile „Expertin“ in meinen Themen bin. Jemand der keine Ahnung von einem Thema hat und dennoch dazu einen Artikel schreibt, dabei einfach der KI alles glaubt, macht keinen guten Job und trägt zur Verschmutzung des Webs bei. (Solche Artikel hab ich übrigens auch schon VOR KI gefunden, aber MIT werden sie häufiger).
„wenn es um Dinge geht, die zwar Zeit kosten, denen man sie aber gerne widmet – wie dem Lesen, dem Schreiben, dem Diskutieren?……“
Wie du siehst, nutze ich viel Zeit, um hier ellenlang zu diskutieren! Ich lese Blogs, betreibe selbst rein hobbymäßig Blogs, bewirtschafte mit meinem Lebensgefährten einen Garten und nutze viel Freizeit, mich über neue Entwicklungen und verschiedene Sichtweisen zu informieren. Dabei bevorzuge ich Medien, die Kommentare und somit auch Debatten erlauben, aktuell neben Blogs vor allem Youtube-Videos.
„Kann es sein, dass du dir in Wirklichkeit nicht eine andere Art von Interface, sondern jemanden wünschst, der dir beim Erledigen der Aufgaben hilft? Und diese Person nun in die KI hineinprojizierst, ihr somit eine gewisse, wenn auch unbewusst angenommene Form der Menschlichkeit zuweist, und sie damit rechtfertigst, legitimierst und verteidigst? “
Nein und nochmal nein! Ich will und brauche niemanden, der mir beim Bedienen (!) meines PCs hilft, jedenfalls nicht bei Routine-Aufgaben wie die beschriebenen. Beim Arbeiten bin ich wirklich gerne allein = ungestört, ohne menschliche Kommunikationsanforderungen.
Und ich bin auch nicht alleine mit dem Wunsch, dereinst im Pflegeheim nicht von einem Menschen sondern von einem Robot gewaschen und gewickelt zu werden – wg. Intimsphäre und so, verständlich? Wenn der Robot dabei auch noch plaudern kann, weil ein LLM in ihm wirkt, umso besser!
Solltest du übrigens Princi wirklich sichten: Er hat gerade ein neues Video zu aktuellen Forschungen von Anthropic (Firma der KI „Claude“, gegründet von Entwicklern, die OpenAI heftig kritisiert und verlassen haben) veröffentlicht;
Beim Denken erwischt: Was Anthropic über KI herausgefunden hat
https://www.youtube.com/watch?v=rqemzmmi6hA
Der Titel ist natürlich Clickbait, denn die ersten Spuren von Selbstbeobachtung sind noch kein Denken (was er auch nicht behauptet).
Ich denke, wir haben uns hier erschöpfend ausgetauscht – und könnten uns darauf einigen, in etlichen Punkten uneinig zu sein. :-) Immerhin gibt es die Gemeinsamheit, einen reflektierten Umgang mit der KI zu promoten, das ist ja schon was!
Claudia, das ist ein schönes Ende: Let’s agree to disagree in some aspects.
Und vielen, vielen Dank für den „ellenlangen“, aber auch feinen, fordernden und anregenden Austausch!
Ich danke Dir für die angenehm sachliche Debatte, ohne jedes Abgleiten in all das, was uns an der Art, wie Kontroversen oft ausgetragen werden, so unendlich nervt… :-)
Unter dem Blogpost, in dem ich deinen Artikel vorstellte, hat sich übrigens auch eine interessante Debatte rund um KI entwickelt. (Im letzten Kommentar hab ich erneut hierher verlinkt: https://www.claudia-klinger.de/digidiary/2025/11/05/linkliebe-texte-videos-und-ein-langes-kommentargespraech-zu-ki/#comment-625095)
Auch „ellenlang“, aber gut. :-)
Ich danke für den Austausch (so macht’s ja auch Spaß!) und lese natürlich auch bei dir drüben mit. Auch wenn’s (oder womöglich gerade weil es) ellenlang ist.