ChatGPT ist Pattern-Matching und Prediction. Vielleicht auch bei uns?

Was, wenn ChatGPT uns gar nicht so unähnlich ist und wir vieles, was wir von uns geben, ebenso lediglich nach dem Schema Pattern-Matching und Prediction und nicht auf Basis tiefen Verstehens und die Anschauung und Überzeugung verändernder Erkenntnis formulieren?

Marc Davis hat vor ein paar Tagen einen Interessanten Gedanken zum Thema Sprache und ChatGPT geäußert, die er nach ein wenig Reflexion aus einer Antwort, die ihm ChatGPT selbst gegeben hat, ableiten konnte. Zuerst die Antwort von ChatGPT auf die Frage, wie die Antworten, die ChatGPT generiert, entstehen.

while I can generate responses that appear meaningful and accurate, I don’t truly understand the words I’m using. […] I’m essentially playing a complex game of pattern matching, predicting what sequence of words is most likely to follow a given input. […] I’m a tool to assist with information and tasks, not a replacement for human judgement and understanding.

@marcedavis

Und kurze Zeit später Marc Davis‘ Schluss, der eigentlich ein Infragestellen von als allgemein gültig angenommener Vorstellungen darstellt:

The more I use ChatGPT, the more I feel it calls into question our models of human language production. How much of how humans use language is based on pattern matching and prediction, and does not rely on what we would consider to be awareness or understanding?

@marcedavis

Und hey, warum nur fühlt sich der diesem Statement zugrunde liegende Gedanke nicht fremd oder absurd, sondern, ganz im Gegenteil, absolut nachvollziehbar und logisch an? Und warum gibt es an nur sehr wenigen Stellen Warnungen davor, was die Implikationen eines solchen Gedankens sind?! Wenn Sprache ein probates Mittel zum Zweck der Reflexion innerhalb unseres Denkens ist und jemand dann daherkommt und meint, dass Menschen Sprache außerhalb von Wahrnehmung und tiefem Verständnis – also genauso, wie ein mathematischen Formeln folgendes Programm – nutzen, was bedeutet das dann? Dass wir Automaten sind? Dass wir nicht in der Lage sind, jenes denken frei zu betreiben, auf dem so vieles in unserer gesellschaftlichen Ordnung basiert? Jene Reflexion, jene Überlegungen, jenes Nachvollziehen selbständig und erfolgreich auszuführen, das uns zu verantwortlichen, selbstbestimmten Wesen mit reflexiver Kraft macht?

Was bedeutet es, wenn jemand behauptet, wir würden nur wiederholen, was wir im Fernsehen hören? (Dave Winer hat das mit „I had exactly the same thought esp since so much of what humans say is repeated garbage they hear on tv“ kommentiert.) Und was, wenn wir uns plötzlich darüber einig werden, dass sich viel Gesprochenes gar nicht so sehr von dem unterscheidet, was ChatGPT macht, also eigentlich nur noch der Prozess ist, in Sprache umzuwandeln, was die wahrscheinlichste Variante eines Musters aneinandergereihter Worte sein wird? Und was, wenn sich die „Individualität“ dieser Antworten, ein Argument, das bei diesem Gedanken natürlich sofort aufkommt, aus der sozialen und geografischen Einbettung eines Individuums ableitet und gar nichts mit inneren Prozessen, sondern überwiegend – wenn nicht sogar vollständig – mit dem Versuch zu tun hat, bekannte Muster (patterns) für das soziale Umfeld passend (matching and prediction) in Laute und somit in Sprache zu konvertieren? Ein gefährlicher Gedanke. Ein gefährlicher, unsere erkenntnistheoretischen, philosophischen, ja sogar unsere religiösen Grundvoraussetzungen und -annahmen in seinen Grundfesten erschütternder Gedanke!

ChatGPT ist ein gutes Thema. Weniger, weil es offensichtliche Arbeitserleichterungen bringt und die Produktivität steigert, sondern viel mehr, weil die Ähnlichkeit der Antworten, die das System uns liefert, mit denen, die uns Menschen geben, äußerst interessante, vor allem aber fundamentale Fragen ans Tageslicht bringt, mit denen wir uns für gewöhnlich nicht beschäftigen. Und wie sehr unsere alltägliche Sprache von Floskeln, Ritualen und Routinen beeinflusst ist, die ein Cartoon von Tom Fishburne schön auf den Punkt bringt. Da sieht man in einer Kachel, wie jemand ein E-Mail abschickt und zu einer Kollegin sagt, „A.I. turns this single bullet point into a long email I can pretend I wrote“, in der zweiten, wie jemand das E-Mail liest und zu einem Kollegen sagt, „A.I. makes a single bullet point out of this long email I can pretend I read“. …und das kennen wir alle. Danke für Ihr E-Mail! Bitte lassen Sie mich wie folgt zu Ihren Punkten Stellung nehmen. Mit freundlichen Grüßen. – Meine Güte, wenn ich mir überlege, wieviel Lebenszeit mich allein diese Floskeln bis heute gekostet haben!

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert