Man mag zu Menschen stehen wie man will, ob man nun respektvoll mit ihnen umgeht oder nicht, ist jedem und jeder natürlich selbst überlassen. Es gibt aber ein paar grundlegende Verhaltensweisen, die, zumindest in meinen Augen, nicht wegdiskutierbar sind. So, zum Beispiel, ein Mindestmaß an Ehrlichkeit, Offenheit, somit auch Konflikt- und Diskussionsbereitschaft, die sich vor allem dann auswirkt, wenn es ums Vermitteln der eigenen Meinung – besonders wenn explizit danach gefragt wird – geht. Jemanden, dem man nicht feindlich gesinnt ist, im Glauben anderer Tatsachen zu lassen, ist ein Fall, der bei mir auf sehr wenig Verständnis stößt.
Zum Anlassfall dieser Moralpredigt in der Einführung dieses Artikels: Ein Unternehmer hat seine Angestellten und langjährigen Geschäftspartner um ihre Meinung in Bezug auf eine aktuelle Herausforderung gebeten. Einige haben sofort, ein paar andere mit ein wenig Verspätung geantwortet. Und einer hat nicht selbst geantwortet, sondern eine KI die Antwort verfassen lassen. Ein unangreifbarer, alle Optionen abwägender Text, der ohne eindeutige Präferenz aufschlägt. Der Text ist nach dem für KIs typischen Schema F geschrieben, inklusive Zwischenüberschriften und Fazit, die Wortwahl sowas von eindeutig nicht die des Absenders der E-Mail. Er hat sich nicht einmal die Mühe gemacht, den AI-Slop zu kaschieren.
Der Unternehmer gehört zur älteren Generation, also gehe ich davon aus, dass ihm die Emojis, das Fazit und andere, für KIs typische Merkmale nicht einmal aufgefallen sind. Aber ein bisschen angewidert war sogar ich, da mich diese von mir als Respektlosigkeit empfundene Übermittlung einer „Meinung“ sehr an die Zuneigung as a Service-Geschichte erinnerte, die nichts anderes war als ein Auslagern der Kontaktpflege mit älteren Menschen an eine Künstliche Intelligenz. So ähnlich auch hier. Anstatt zu schreiben, es interessiere ihn das Gelaber des Alten nicht und er solle ihn mit solcherlei Anfragen um die eigene Meinung in Ruhe lassen, hat er lieber eine KI einen allgemeinen, „Es ist eh alles gut“-Text verfassen lassen, der eine Diskussion mit klaren Positionen de facto im Keim erstickt. Warum mich das anwidert? Es ist nicht nur die Respektlosigkeit der Bitte um die eigene Meinung, die hier greift, sondern auch die grundlegende Einstellung gegenüber einer um persönliche Meinungen ersuchenden Person, die, gepaart mit der Annahme (so meine Vermutung), sie würde eh alles schlucken, nicht einmal offenkundig über die eigenen Absichten informiert, den Fragenden also im Glauben lässt, die Unterstützung des Befragten zu haben, während dieser eine offensichtlich gänzlich andere Agenda verfolgt.
Ist eine „Meinung“ von einer als starkes Teammitglied wahrgenommenen KI eine Meinung? Ist diese „Meinung“ aus authentischer Intentionalität entstanden? Wenn ja, dann ist sie eher unter „Ach, lass mich doch in Ruhe! ChatGPT, generiere eine passable Antwort auf den bisherigen Mailverlauf!“ einzuordnen. Schöne, neue Welt.
Ich lese tausendmal lieber ein E-Mail, in dem steht, jemand habe keine Meinung oder wolle sich nicht an der Diskussion beteiligen, als eine von einer KI generierte „Meinung“. Ich fürchte, wir werden uns an so einen Zustand gewöhnen und ab sofort immer damit rechnen müssen, dass Personen an Diskussionen beteiligt sind, die lediglich als Proxies und Agenten einer KI agieren, weil sie selbst über keinerlei (intrinsische) Motivation verfügen, sich an der Meinungsbildung zu beteiligen, sehr wohl aber daran, dabei zu sein. Das ist auf der einen Seite respektlos, auf der anderen aber auch gefährlich. Wer sich nämlich mit Problemen nicht auseinandersetzt und langsam den Anschluss verliert, weil die KI den Durchblick hat, setzt nicht nur seine, sondern die Position des Unternehmens aufs Spiel, da wesentliche und mit Konsequenzen belegte Entscheidungen auf Basis von Meinungen der KI getroffen werden.