Die überwältigend negative und demoralisierende Kraft Künstliche Intelligenz

Wir Fans der KI übersehen, wie demoralisierend und negativ sich die Technologie auf die Arbeit auswirkt, die ohnehin bei uns verbleiben wird, egal, wie sehr wir KI auch zur Anwendung bringen können.

Über die „überwältigend negative und demoralisierende Kraft„, die vom Zwang, Künstliche Intelligenz im eigenen beruflichen Alltag zu nutzen, ausgeht. Luke Plunkett von aftermath zählt etliche Beispiel aus der Computerspiele-Branche auf und es lohnt sich für all diejenigen, die auch an einen KI-Zwang, egal, wie stark er sein mag, denken, den Artikel aufmerksam zu lesen. Am Ende scheitern die meisten nämlich.

We’re a few years into a supposed artificial intelligence revolution, which could and should have been about reducing mundane tasks and freeing everyone up to do more interesting things with their time. Instead, thanks to the bloodthirsty nature of modern capitalism and an ideological crusade being waged by the tech industry, we’re now facing a world where many people’s livelihoods–like video game developers–are under direct threat.

Luke Plunkett

Ich möchte gar nicht weiter auf den Artikel eingehen. Stattdessen kann ich selbst über die überwältigend negative und demoralisierende Kraft der Verwendung von Künstlicher Intelligenz berichten. Nicht etwa, weil sie mir aufgezwungen wurde, sondern weil ich bei einigen derer, mit denen ich zusammenarbeite, ein fast schon krampfhaftes Nutzungsverhalten in Zusammenhang mit und gleichzeitig ein falsches Verstädnis von Künstlicher Intelligenz feststelle, was mir für sich genommen egal sein könnte; da es mich aber Zeit – und zwar sehr viel Zeit – kostet, ist es das nicht.

Wenn ich mit R zu tun habe, dann war das bis vor ChatGPT immer ein fruchtbares, kreatives Miteinander. Jeder im Team hat seine Recherchearbeit gemacht, die Quellen geprüft und ist vorbereitet in die Gespräche und Diskussionsrunden gekommen. Irgendwann einmal hat R gemeint, Google sei die Vergangenheit und ChatGPT die Zukunft. Wenn R recherchiert hat und die dieser Recherche entsprungenen Ergebnisse präsentierte, dann war es immer öfter so, dass die Quelle seiner Ergebnisse nicht die eine oder andere Website war, aus der man vielleicht schließen hätte können, wie die Zahlen, Daten und Fakten zustande gekommen sind, sondern ChatGPT. Die Quelle war ChatGPT. Dass das faktisch nicht funktioniert und dass die Informationen, die eine Künstliche Intelligenz ausgibt, keine Quelle sind – und auch nie sein können -, scheint egal zu sein. Je mehr und je länger wir zusammenarbeiten, desto mehr und häufiger kommt ChatGPT als Quelle für Informationen zum Einsatz. Häufig stimmen die Daten, manchmal aber eben nicht. Wenn Daten einmal nicht stimmen, dann müssen sie immer überprüft werden. Und hier wären wir wieder bei dem Punkt, der mich Zeit kostet, denn R prüft diese Daten nicht, sondern verlässt sich – weil das ist ja die Zukunft – auf ChatGPT.

Ein anderes Beispiel ist G, die keinen einzigen Text mehr, egal, wie kurz er auch sein soll, direkt verfasst. Wenn sie irgendeinen Text, sei es ein E-Mail, ein Bericht, egal was, verfassen soll, öffnet sie nicht mehr Word, ihr E-Mailprogramm, Google Docs oder was auch immer, sondern von Haus aus ChatGPT (allein das!) und formuliert ihre dort Idee als Prompt. Abschnittsweise lässt sie sich den Text dann generieren und übernimmt ihn als den ihren. Sie ließt ihn zwar durch und markiert Stellen, die ihr nicht gefallen (oder die falsch sind), bessert diese Stellen aber nicht selbst aus, sondern verfasst abermals einen Prompt, um sie von ChatGPT verbessern zu lassen.

Abgesehen von der ineffizienten Arbeitsweise passiert hier aber noch etwas. ChatGPT holt G in eine Art Spurrine in Bezug auf die zu treffende Aussage. G gewöhnt sich immer mehr an teils verklausulierte oder in manchen Fällen schlichtweg (in Bezug auf den intendierten Inhalt) falsche Aussagen und Formulierungen. In anderen Worten: ChatGPT verändert nicht nur ihren Gedanken, sie passt ihn zugunsten des von ChatGPT generierten Textes auch an. Das ist für die eine oder andere Formulierung vielleicht noch akzeptabel, nicht aber bei der Art und Weise, wie G Texte verfasst. Da sie Abschnitt für Abschnitt generiert, verändert ChatGPT auch den großen Gedanken hinter den einzelnen Abschnitten, die Künstliche Intelligenz verschiebt also auch die rote Linie, von der G meint, dass sie ihr folgen würde. Ich habe es aufgegeben, G auf dieses Problem hinzuweisen, und gehe gar nicht mehr auf Einzelheiten ihrer Texte ein. Stattdessen lehne ich sie, wenn sie mich betreffen, nicht grundsätzlich, wenn, dann aber in Pausch und Bogen ab. Ich möchte – hier kommt der demoralisierende Faktor – meine geistige Leistung nicht darauf verschwenden, mir einen Text durch- und ihn damit de facto Korrektur zu lesen, der immer häufiger auch von ihr nicht einmal mehr korrigiert wurde, denn – ich zitiere sinngemäß – „die werden ja wohl dafür sorgen, dass die KI immer besser wird, das erledigt sich also früher oder später ohnehin von selbst“.

Es sind dies nur zwei Beispiele, die, um den Apologeten der Technologie gleich den Wind aus den Segeln zu nehmen, auf der einen Seite Komplexes fassbar und dessen Herstellung beschleunigbar erscheinen lassen, sieht man sich aber den Gesamtaufwand an, konnte ich bisher noch keinen Fortschritt feststellen. Was wir früher am gemeinsamen Denken, Brainstormen, Ausformulieren und bei anderen, kreativen und in manchen Fällen intellektuell herausfordernden Tätigkeiten aufgewendet haben, ist nun die Nachbearbeitung eines zweitklassigen, mit KI verfassten Textes.

Und ja, das ist, wenn man es sich von außen ansieht, überwältigend negativ und erstaunlich demoralisierend.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Benachrichtige mich bei Reaktionen auf meinen Kommentar. Auch möglich: Abo ohne Kommentar.