Das ist schon eine starke Aussage, die Sundar Pichai da in einem Interview mit Nilay Patel (in The Verge) von sich gibt. Auf die Frage nach der Vertrauenswürdigkeit automatisiert generierter Antworten und den, zumindest bei OpenAI sichtbaren Hinweisen, diese Antworten inhaltlich noch einmal zu prüfen, gibt der Google CEO die folgende Antwort, die – mich zumindest – beunruhigt.
Hallucination is still an unsolved problem. In some ways, it’s an inherent feature. It’s what makes these models very creative. It’s why it can immediately write a poem about Thomas Jefferson in the style of Nilay. […] But LLMs aren’t necessarily the best approach to always get at factuality, which is part of why I feel excited about Search.
Because in Search we are bringing LLMs in a way, but we are grounding it with all the work we do in Search and layering it with enough context that we can deliver a better experience from that perspective. But I think the reason you’re seeing those disclaimers is because of the inherent nature. There are still times it’s going to get it wrong, but I don’t think I would look at that and underestimate how useful it can be at the same time. I think that would be the wrong way to think about it.
Sundar Pichai
In anderen Worten: Google nimmt einen Nachteil, ein Problem, das eine Technologie mit sich bringt, die aber die Technologie für bestimmte Tätigkeiten nicht nutzbar macht, und ignoriert sie, um des Einsatzes der Technologie Willen. Die überall im Web aufpoppenden Screenshots über fehlgeleitete AI Overviews zeigen, wie häufig Googles Künstliche Intelligenz irrt und diese Irrtümer sind dann wohl nicht als „Fehler“ zu verstehen, sondern als ein der Technologie inhärentes Feature. Dass aber faktisch Falsches als Suchergebnis (bzw. Überblick über Suchergebnisse) präsentiert wird, ist offenbar egal. Technologie um der Technologie Willen ist kein guter Zugang und wird, sofern das Google nicht sehr bald in den Griff bekommt, ein richtig großes Problem werden.
Bei einfachen Suchen und bei Themen, mit und in denen wir uns auskennen, mögen wir solche Fehler und „Halluzinationen“ erkennen, aber was, wenn wir uns an die AI Overviews gewöhnen und sie für bare Münze nehmen. Was, wenn der Moment erreicht ist, wenn aus all dem Kontext, von dem Sundar Pichai spricht, genügend Information gewonnen wurde, der aus offensichtlichen Fehlern in den AI Overviews subtile, allerdings den Rechercheverlauf eines Menschen beeinflussende Fehler entstehen? Wie wird es Google gelingen, Voreingenommenheit und Meinung aus lediglich dem Kontext einer Information, der sich lediglich aus der Verteilung dieser Information auf verschiedene URLs ergibt, filtern zu können? Weiter gefragt: Wird es Google gelingen, sich mittels Fortschritt in der Entwicklung der Künstlichen Intelligenz aus der Misere zu befreien?
Ich fürchte nicht, denn das Suchvolumen und die Abhängigkeit des Internets von Google ist zu groß und die Nutzung von Google-Diensten zu hoch frequentiert, um da einen zeitlichen Spielraum hineinzuprojizieren, der es möglich machen würde, das Problem in den Griff zu bekommen. Meine Güte, die ganze Sache, folgt man ihr auf X, Mastodon oder auf irgendeinem anderen Social Mediaum, fühlt sich tatsächlich an, wie es Joost de Valk in einem Tweet beschreibt: „We’re live tweeting the fall of the Google empire.“