Über die Annahme eines ChatGPT-Jesus

"Künstliche Intelligenz" ist ein Marketingbegriff und hat nichts, aber so absolut gar nichts mit "Intelligenz" zu tun. Auch heute noch, gut zwei Jahre nachdem ChatGPT veröffentlicht wurde, gibt es Menschen, die im Output von KIs Intelligenz sehen wollen. Spoiler: There is none.

Tyler Austin Harper argumentiert im Atlantic, dass viel zu viele auf das Marketing der Unternehmen, die künstliche Intelligenz als Service verkaufen, hereingefallen sind, weil sie nicht und nicht verstehen, wie die Technologie funktioniert, wo ihre Limits liegen, und dass sie selbst, die Menschen also, der Tendenz unterliegen, geschriebene Sprache als Output eines von Intelligenz getriebenen Wesens zu interpretieren.

The foundation of the AI industry is a scam. […] To call AI a con isn’t to say that the technology is not remarkable, that it has no use, or that it will not transform the world (perhaps for the better) in the right hands. It is to say that AI is not what its developers are selling it as: a new class of thinking—and, soon, feeling—machines. […] Large language models do not, cannot, and will not “understand” anything at all. […] LLMs are impressive probability gadgets that […] produce writing not by thinking but by making statistically informed guesses about which lexical item is likely to follow another. […] People have trouble wrapping their heads around the nature of a machine that produces language and regurgitates knowledge without having humanlike intelligence. […] We encounter text that looks just like something a person might have said and reflexively interpret it, through our usual process of imagining a mind behind the text. But there is no mind there, and we need to be conscientious to let go of that imaginary mind we have constructed.

Tyler Austin Harper

Diese nur schwer überwindbare Vorstellung einer virtuellen „Intelligenz“ hinter den Texten, Bildern und Videos führt zu Problemen draußen, in der nicht-digitalen Welt. Die einen stützen sich auf medizinische Aussagen, die eine KI tätigt. Andere bauen Beziehungen zu ihr auf. Wiederum andere verstärken ihnen ohnehin schon innewohnende Fantasien und fühlen sich bestärkt in den (falschen) Dingen, die sie tun. Und wiederum andere vermeinen, ein gottähnliches Wesen in den KIs und LLMs zu erkennen, quasi einen ChatGPT-Jesus. Dass das alles aber vom Prompt abhängig ist, sich statistisch anpasst und keinen generischen Wert hat, blenden sie aus. In anderen Worten: Wer mit künstlicher Intelligenz interagiert, hört sich gewissermaßen selbst beim Denken zu und interpretiert das als großartigen Output der Intelligenz eines virtuellen Dritten.

Immerhin, so Tyler Austin Harper im Atlantic, schützt uns Menschen dann doch noch eine uns tief innewohnende Eigenschaft. Obwohl wir uns ein denkendes Wesen vorstellen, das Texte und anderen intelligent erscheinenden Output produziert, so behalten wir doch ein gewisses Maß an Skepsis bei, das – nunmehr in der Tat – die letzte Barriere darstellt, den von einer künstlichen Intelligenz produzierten Outputs gänzlich zu vertrauen.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Benachrichtige mich bei Reaktionen auf meinen Kommentar. Auch möglich: Abo ohne Kommentar.