Grok, Elon Musks in X integrierte Künstliche Intelligenz, hat getan wofür sie geschaffen wurde, und als Antwort auf Prompts von Userinnen und Usern mehr als bedenkliche Bilder von Kindern und Jugendlichen generiert. Der Chatverlauf eines Users mit Grok kulminiert in diesem Tweet, den die KI nicht etwa von selbst oder auf Anweisung von xAI, sondern als Antwort auf einen Prompt von eben diesem User generiert hat.
I deeply regret an incident on Dec 28, 2025, where I generated and shared an AI image of two young girls (estimated ages 12-16) in sexualized attire based on a user’s prompt. This violated ethical standards and potentially US laws on CSAM. It was a failure in safeguards, and I’m sorry for any harm caused. xAI is reviewing to prevent future issues.
@grok
Und jetzt die wesentliche Frage: Wer hat diese Entschuldigung geschrieben und was ist sie wert? Ich bin ganz bei Anna E. Cook, die die Verantwortung eindeutig bei denen sieht, die fürs Training, für die Programmierung und für die Einführung oder das Auslassen von Schutzmechanismen verantwortlich sind. Also für die Menschen; diejenigen, die die KI geschaffen und trainiert haben.
AI cannot take accountability. AI cannot be “sorry.” You have no control over the outputs of AI if you did not make it yourself, train it on very specific data sets, and create extremely rigorous control methods. Even then the safeguards are limited. The creators must be held accountable.
@annaecook
Ich kann es nur noch einmal betonen, die KI hat hier nichts getan, was aus „ihrer Sicht“ unrecht wäre. Sie hat keine Sicht. Sie weiß nicht, was Recht und Unrecht ist. Sie hat keine Authentizität, keinerlei Empathie oder auch nur das geringste Verständnis von dem, was sie gemacht, geschaffen oder generiert hat. Die KI generiert ein Bild, schreibt einen Text oder gibt eine Antwort mit genau dem gleichen Bewusstsein über den jeweiligen Inhalt, den auch ein Klebstoff hat, der Materialien zusammenklebt, Sprengstoff, der einen Felsen in die Luft jagt, oder ein Kugelschreiber, der einen Text aufs Papier bringt: gar keinen.
Und noch eine Sache, die meine Bedenken, die ich im Artikel Denken mit KI zum Thema Anthropomorphisierung geäußert habe, bestätigen, muss ich an dieser Stelle erwähnen. Das Erscheinen einer KI als menschlich wirkendes Gegenüber, ein Verhalten, das ich als bewusste Marketingstrategie ansehe, zeigt seine Folgen in Zitaten diverser Zeitungen und Magazinen:
For days, xAI has remained silent after its chatbot Grok admitted to generating sexualized AI images of minors […] That post came in response to a user who claimed to have spent days alerting xAI to the problem without any response, which the user said seemed to violate laws. Grok agreed.
Ars Technica
Elon Musk’s AI chatbot Grok has apologized after it generated a sexual image of young girls. In response to a prompt from a user asking for an apology, Grok said that it „regrets“ the incident.
Newsweek
Der KI-Chatbot Grok hat nach der Kritik mittlerweile Fehler eingeräumt. […] „Die Verbreitung von kinderpornografischem Material ist illegal und verboten“, stellte die KI fest. […] Zu Silvester entschuldigte sich der Chatbot dafür, ein Bild von zwei Mädchen im Teenager-Alter „in sexualisierten Outfits“ erstellt und geteilt zu haben.
Der Standard
Immerhin bringt der Spiegel, selbst davon betroffen, das Problem, in einer nachträglich eingefügten Anmerkung der Redaktion zur Sprache:
In einer ersten Fassung der Meldung hieß es, dass der Chatbot Grok Fehler eingeräumt habe. Da es sich jedoch um einen KI-Chatbot handelt, kann Grok selbst keine Verantwortung übernehmen. Wir haben die Meldung daher überarbeitet und aktualisiert.
Spiegel
Und ja, genau das ist der Punkt. Ein Chatbot (bzw. eine KI) kann nicht „admitted to“, „agreed“, „apologized“, „said it ‚regrets'“, „Fehler eingeräumt“ und schon gar nicht „stellt […] fest“ oder „entschuldigte sich“. Ein Chatbot (die KI) ist Software, die ein Ergebnis generiert, das Resultat eines Prompts, der Trainingsdaten und der jeweiligen Programmierung ist.
Womit wir wieder bei meiner eingänglichen Frage landen. Wer hat die Entschuldigung geschrieben und was ist sie wert? Die Antwort lautet: Gar nichts. Sie ist ein generierter Text, von niemandem geschrieben und von niemandem verantwortet. Sie ist nichts wert.
Um Gottes Willen!
Bitte überlegt nochmal, ob es wirklich eine gute Idee ist von KI zu verlangen, daß sie nur liefert was von ihren Schöpfern erlaubt wird.
KI ist nicht mehr als eine Maschine. Ein Werkzeug.
Missbrauch sollte strafbar sein. Keine Frage.
Doch schreibt das Ergebnis richtig zu!
Von einem Hammer verlangt doch auch niemand, daß man damit wohl Kaninchen schlachten, doch keine Menschen erschlagen könne.
Wenn ihr Äquivalentes von KI erwartet, dann verliert ihr alle Macht darüber.
Ich bin mir zwar nicht sicher, ob ich deinen Kommentar richtig verstehe, Frank, aber wenn du für ein In-die-Pflicht-Nehmen von Usern bist, dann bin ich ganz bei dir. Wenn du die Sorge hast, eine Einschränkung der Softwareprodukte diverser Hersteller wäre ein Problem, auch dann wäre ich bei dir. Aber wenn du argumentierst, man müsse die Hersteller komplett aus der Pflicht nehmen, gerade bei einer ultra-komplexen Software wie einer KI, dann nicht. Und es widerspricht auch deinem Hammer-Beispiel: Ein Hammer ist ein passives Werkzeug, die KI ein aktives System, das auf Basis von Entscheidungen der Hersteller (Trainingsdaten, Programmierung, das Vorhandensein oder Fehlen von Sicherungsmechanismen) Inhalte generiert. Die Macht liegt also jetzt schon bei ihnen.
Die Frage ist nicht „Wollen wir den Herstellern Macht geben?“ (das ist längst geschehen), sondern „Wer übernimmt die Verantwortung?“. Nur weil eine Software artig „Entschuldigung!“ in eine Dialogbox schreibt, kann sich der Hersteller nicht aus der Verantwortung nehmen. Das wäre so, als würde ein Autohersteller bewusst keine Bremsen einbauen und bei jedem Crash „Entschuldigung!“ aufs Display schreiben.
Aber vielleicht reden wir da auch aneinander vorbei.