Falsche Erwartungen an KI

Entweder wir sind vollständig gegen Künstliche Intelligenz oder wir behandeln und bewerten sie wie einen falschen Gott. Das ist ein Problem.

Das Abstract eines Papers von Raphael Raux und Bnaya Dreyfuss „Human Learning about AI“.

We study how humans form expectations about the performance of artificial intelligence (AI) and consequences for AI adoption. Our main hypothesis is that people project human-relevant task features onto AI. People then over-infer from AI failures on human-easy tasks, and from AI successes on human-difficult tasks. Lab experiments provide strong evidence for projection of human difficulty onto AI, predictably distorting subjects’ expectations. Resulting adoption can be sub-optimal, as failing human-easy tasks need not imply poor overall performance in the case of AI. A field experiment with an AI giving parenting advice shows evidence for projection of human textual similarity. Users strongly infer from answers that are equally uninformative but less humanly-similar to expected answers, significantly reducing trust and engagement. Results suggest AI “anthropomorphism” can backfire by increasing projection and de-aligning human expectations and AI performance.

Raphael Raux

Das Paper ist (für mich) mäßig interessant, aber seine Kernaussage, die sinngemäß lautet, dass wir KI entweder unter- oder eben massiv überschätzen, kann ich gut nachvollziehen. Ebenso, wie die Schilderung des für Menschen üblichen Wechsels von allumfassender Skepsis gegenüber der Technologie hin zu frenetischem Glauben an und Überschätzen von den Fähigkeiten von Künstlicher Intelligenz.

Ich sage ja auch schon lange: Entweder voll dagegen oder eben ein falscher Gott. Dieses Schlingern zwischen gerade mal passablen und teilweise wirklich guten Ergebnissen und Antworten auf unserer Fragen macht es momentan eben so schwierig Künstliche Intelligenzen richtig einzuordnen.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert