KI ist die Pille gegen unsere Angst vor Inhalten

Je mehr KI für Inhalte eingesetzt wird, umso mehr beschleicht mich die Sorge, dass uns die Beurteilungskriterien für qualitativ hochwertige Arbeiten verloren gegangen sind.

Wie alle, die hier mitlesen, wissen, bin ich, was KI-generierte Inhalte angeht, äußerst skeptisch, da ich mich nicht von denen, die die Technologie verkaufen, einlullen lassen und somit akzeptieren möchte, dass die Qualität des Outputs ohne (menschliche) Rückprüfung und Verifizierung passt. Sicher, das, was ChatGPT, Claude und andere AIs produzieren, ist sehr wahrscheinlich in vielen Fällen „besser“ als das, was ein durchschnittlich begabter Mensch produzieren kann, sofern Qualität – und eben nicht die Geschwindigkeit, mit der das Endprodukt hergestellt wird – von Relevanz ist.

Was ich aber nun im (geschäftlichen) Bekanntenkreis feststelle, ist ein Trend, der mich in einem Spektrum von kopfschüttelnd bishin zu fast sprachlos zurücklässt und ein Statement konterkariert, das wahrscheinlich ohnehin alle kennen:

We don’t need AI to make art. We need AI to write emails and clean the house and deliver the groceries so humans can make more art.

SJ Sindu

Was genau meine ich nun? Auf der einen Seite unterhalte ich mich mit Kolleginnen und Kollegen, die mir stolz über ihre Arbeiten im Bereich Backend- wie auch Frontend-Programmierung berichten und die mir zeigen, wie sie vermittels Tracking und Technologie dieses und jenes erreichen können. Auf der anderen Seite sind es die gleichen Kolleginnen und Kollegen, die in ihren Projekten zu nahezu einhundert Prozent auf von KIs generierte Inhalte (ja, sowohl Text- als auch andere Multimediainhalte) setzen. In anderen Worten: Das, was von Menschen für Menschen gedacht ist (Inhalte), wird von der KI übernommen, das, was nur der Möglichkeit der Darstellung dient (Programmierung), von Menschen. 🤔

Ein Beispiel: Ein Kollege hat ein Backend programmiert, das de facto als Aggregator für Termine fungiert. Das Frontend dazu soll diese Termine anzeigen, sich aber durch Kritiken zu den dort angeführten und aufgelisteten Theater-, Oper- und Musicalstücken auszeichnen. Für den Aggregator wurde Geld freigemacht. Die Kritiken werden allerdings mittels KI generiert: sie scannt geläufige Websites, die sich dem Thema widmen, extrahiert dort Inhaltsangaben und Kommentare, erstellt daraus eine Rezension und postet sie dann zum jeweiligen Stück. Macht das Sinn?

Was eh cool klingt, lässt mich dennoch den Kopf schütteln: Einen Aggregator kann ich mit einer KI, sofern es so ein System nicht ohnehin schon fix fertig gibt, relativ schnell herstellen – und da das ein Teil ist, den man nicht sieht, ist es auch völlig in Ordnung, wenn dort der eine oder andere „Fehler“ passiert. Die Rezension, hingegen, ist ein höchst menschlicher Teil dieses Angebots. Nur, wer sich in den Argumenten der Rezension wiederfindet, wird die Rezension tatsächlich lesen und so das Angebot nutzen. Wenn das Review allerdings ein KI-generierter, langweiliger Text ist, dann werden auch Userinnen und User tendenziell nicht wiederkommen, denn die technische Seite ist die eine Seite, die Bindung geschieht aber auf einer anderen.

Hier und bei so dermaßen vielen anderen Beispielen kommt bei mir allerdings immer mehr ein Gedanke auf, der in mir Unbehagen erzeugt: Kann es sein, dass wir Menschen alles nur Erdenkliche tun, um uns vor Inhalten zu drücken? Kann es sein, dass sich einfach niemand traut, einen Text zu verfassen? Die Verbindlichkeit für eine Meinung, ein Statement oder sonst irgendetwas herzustellen? Woran liegt es, dass KI ganz besonders stark in die Content-Generierung eingreift und der Tenor der Proponenten dieser Technologie lautet, Menschen seien hier de facto obsolet geworden1. Bei technischen und handwerklichen Themen jedoch wird das menschliche Element überstark betont?

Ich habe diesen Gedanken definitiv nicht zu Ende gedacht, er kommt in letzter Zeit aber immer und immer wieder auf. Erst gestern wieder wurde ich mit einem Setting konfrontiert, in dem die Technik als von einer KI nicht machbar gedeutet wurde, die (tatsächlich für den Erfolg des Projekts relevanten) Inhalte hingegen als völlig unproblematisch von einer KI produzierbar. Sinngemäß: Die Technologie kann nur ich bereitstellen, die Inhalte kann ja jeder generieren.

Kann es sein, dass hier noch immer die Nachwehen von Schule und Ausbildung im Allgemeinen zu dieser Abwehrreaktion führen? Kann es sein, dass uns die Kriterien für qualitativ hochwertige Texte („Inhalte“, abstrakt) abhanden gekommen sind? Kann es sein, dass wir Inhalte nicht mehr spüren, sie nicht mehr für das nehmen, was sie sind? Kann es sein, dass wir sie nur noch als Prompts für selbst generierte, von der Marvellisierung zerstörte Vorstellungen nutzen?

  1. Ganz besonders stark ist dieser Tenor bei denjenigen, die, wenn man sich mit ihnen in personam unterhält, keinen geraden Satz rausbringen, keinen Gedanken zu Ende führen und mit Füllfloskeln ihre Unkenntnis der einfachsten Grundregeln der Sprache, Argumentation und Rhetorik zu verstecken versuchen. Sie sind aber auch die stärksten Proponenten des Arguments, KI-generierte Inhalte wären qualitativ hochwertig. Da stelle ich mir schon die Frage, wie sie das denn beurteilen können? ↩︎

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert