Obligatorischer Hinweis auf Unzulänglichkeit

tante meint, völlig zurecht, dass wir den Hinweis auf Unzulänglichkeit bei Künstlichen Intelligenzen nicht akzeptieren sollten.

Jürgen Geuter aka tante hat Recht: Warum akzeptieren wir bei allen Anbietern von Programmen, die als Künstliche Intelligenz verkauft werden, den obligatorischen Hinweis auf die Unzulänglichkeit der von eben der Künstlichen Intelligenz produzierten Ergebnisse?

Why did we come to accept a whole industry releasing products that they all have to affix an asterisk to basically telling us that their product doesn’t work? […] I find it really weird that – just because AI is magic and all – we allow huge corporations to release something that is so obviously not up to standard that they have to remind you about it with every use. How is that acceptable? […] If your product needs that big of an asterisk to be put out there maybe you really don’t have a product […] that you possibly shouldn’t charge for and that nobody serious should integrate into processes they care about.

tante

Sicherlich, es passiert, dass Unternehmen Produkte und Systeme auf den Markt bringen, die den einen oder anderen Fehler beinhalten oder fehlerhaften Output produzieren können, aber die Unternehmen stehen dazu ein und bieten Rückerstattungen oder Preisminderung an. Das ist ein ganz normales, akzeptiertes und praktiziertes Vorgehen. Außer bei Unternehmen im Bereich der Künstlichen Intelligenz. Hier hat es sich eingebürgert – und hierin liegt tantes Kritik – Fehlerhaftigkeit, wenn nicht gar Unzulänglichkeit, als fast schon integralen Bestandteil eines Produkts bzw. Systems zu akzeptieren. Und wir alle tun es, warum auch immer. Die Krux liegt halt darin, dass, sollte sich dieses Akzeptieren etablieren und in gelebte Praxis übergehen, irgendwann die Nutzerinnen und Nutzer eines Produkts zur Verantwortung herangezogen werden, und nicht das fehlerhafte Produkt.

Ein Satz wie „Sie haben ChatGPT1 benutzt, sie tragen die Verantwortung! Sie hätten ja wissen müssen, dass dieses Programm keine haltbaren Behauptungen generieren kann“ klingt völlig normal. Hingegen ein Satz wie „Sie haben ChatGPT benutzt, im generierten Ergebnis liegt aber ein Fehler vor. Sie haben sich zurecht auf die Fehlerfreiheit des Produkts verlassen, also werden wir sie schadlos halten und uns an den Hersteller der KI wenden“ wäre eigentlich angebracht. Wer’s nicht glaubt, spiele die zwei Sätze mit einem Getränkehersteller, Microsoft Excel (!!) oder anderen Unternehmen durch. Nirgendwo würden wir die Unzulänglichkeiten heutiger Versprechen von KI-Unternehmen bei anderen Produkten akzeptieren.

Es ist also doch eher eine Sache des Glaubens, die uns die Technologie nutzen lässt.

  1. „ChatGPT“ verwende ich hier nur beispielhaft und als weitläufig genutztes System für ein auf Künstlicher Intelligenz basierendes System. ↩︎

2 Kommentare

  1. Ich nutze KI wie Chat-GPT oder Perplexitiy mit der gleichen Einstellung, wie den Wetterbericht der Smartphone-App oder die Routenanweisungen in Google Maps:
    Es sind meistens hilfreiche Assistenten, die mir aber nicht das Denken abnehmen, wenn ich nicht mit dem Auto im Fluß enden möchte. (Das im Auto eingebaute Navi weist sogar ausdrücklich bei jedem Fahrtantritt darauf hin, was ich aber eher als lästig empfinde.)
    Fehlen beim KI-Rezept für Pfannkuchen (pardon, Palatschinken?) bei den Zutaten die Eier, schlage ich sowieso rasch noch woanders nach. Um nicht auswendig gelernte Mengenverhältnisse nachzulesen, brauche ich keinen Disclaimer und zum „Herrn und Gebieter der Küche“ wird die KI auch nicht, nur weil ich bequemerweise rasch das Rezept abgerufen habe.
    Anders mag das bei Staatsoberhäuptern aussehen, die sich für ein „stable Genius“ halten und selbst mit einfachen Technologien überfordert sind. Hier wäre ein Hinweis vor Truppeneinsatz vielleicht nicht schlecht.

    • Ja, ich sehe das ähnlich wie du. Es ist schon klar, dass all die Tools und Gizmos Assistenten sind, aber bei dem, was gegenwärtig als KI verkauft wird, bin ich bei tante. Den Unterschied zum Navi oder zum Rezept (und natürlich Palatschinke, gar keine Frage!) sehe ich nämlich auch: Wenn du im Navi eingibst, du möchtest in Straße X in Ort Y, dann führt es dich in 99,9% aller Fälle dort hin und du wirst gegebenenfalls über unbefahrbare Stellen geleitet, worin die Berechtigung für den Hinweis liegt. Beim Rezept weiß ich gar nicht, wo der Fehler sein soll. Bei KI, allerdings, ist die Dimension eine andere: Da kann es sein, dass dich das „Navi“ an einen Ort und in eine Straße führt, die nicht exisitert, weil es Straßen und Orte erfindet. Und was das Rezept angeht, so war doch da vor kurzem etwas mit Klebstoff auf Pizza.

      Das mit dem stable Genius, allerdings, ist eine ganz andere Sache (und soll ein ander Mal erzählt werden).

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Benachrichtige mich bei Reaktionen auf meinen Kommentar. Auch möglich: Abo ohne Kommentar.