SearchGPT ist da: I’m feeling lucky

OpenAI hat SearchGPT veröffentlicht. Die KI-gestützte Suchmaschine produziert ein Ergebnis, bei dem ich mich wie bei einem Klick auf den "I'm feeling lucky"-Button bei Google fühle.

OpenAI hat soeben seine KI-Suchmaschine SearchGPT vorgestellt. Vorerst nur als Prototyp und mit durch eine Warteliste beschränktem Zugriff, aber immerhin. Was Google lange befürchtet hat, ist nun wahr geworden und manifest. Mich interessiert brennend, wieso sich OpenAI auf das hauchdünne Eis des Suchmaschinenmarkts, das schon so viele zu Opfern ihrer Anstrengungen gemacht hat und gerade auch unter dem einzig erfolgreichen Unternehmen in diesem Bereich wegzubrechen droht, einlässt. Aber wir bleiben positiv und begrüßen SearchGPT.

We’re testing SearchGPT, a prototype of new search features designed to combine the strength of our AI models with information from the web to give you fast and timely answers with clear and relevant sources. […] We plan to integrate the best of these features directly into ChatGPT in the future. […] Getting answers on the web can take a lot of effort, often requiring multiple attempts to get relevant results. We believe that by enhancing the conversational capabilities of our models with real-time information from the web, finding what you’re looking for can be faster and easier.

OpenAI

Die Mission ist verschriftlicht, nun muss sich die neue Suchmaschine bewähren.

Wenn ich mir Suchergebnisse von einer KI-gestützten Suchmaschine als Zusammenfassung präsentieren lasse und diesem Ergebnis vertraue, dann gerate ich damit in eine paradoxe Situation. Niemals würde ich dem „I’m feeling lucky“-Button bei Google vertrauen, das beste Ergebnis auszuwählen und mir anzuzeigen, und doch erhebt SearchGPT den Anspruch, mir eine Antwort auf meine Frage zu generieren, die in ihrer Qualität herkömmliche Suchergebnisse überbieten kann. Warum vertraue ich der nach wie vor besten Suchmaschine der Welt in ihrer Auswahl des Suchergebnisses für mich nicht, soll aber dem neuen SearchGPT sogar dahingehend vertrauen, dass es das Erstellen einer Antwort für mich übernimmt? Dieses Paradoxon hat mich zu dem doch recht langen Artikel motiviert, in dem ich mir einige Aspekte von SearchGPT näher ansehe, gleichzeitig ein paar Gedanken präzisiere und somit auf noch mehr Fragen stoße als zuvor.

Suchvorgang: Wir wurden gut trainiert 🦮

Im Ankündigungsbeitrag weist OpenAI auf vier Aspekte seiner neuen Suchmaschine hin, die allesamt das Konversationsmodell, das wir aus der Interaktion mit ChatGPT bereits kennen, zum Feature erhebt. Deswegen musste ich auch bei den letzten zwei Sätzen des oben angeführten Zitats schmunzeln, denn tatsächlich ändern wird sich an der Art zu suchen aus meiner Sicht nicht viel. Wenn OpenAI den Suchvorgang als „oft mit mit großem Aufwand verbunden“ charakterisiert und gleich mit anhängt, dass es „häufig mehrere Versuche, um überhaupt relevante Ergebnisse zu erhalten“ erfordert, nun, dann frage ich mich, was denn bei SearchGPT nun großartig anders sein wird. Wenn das Suchergebnis durch eine Konversation mit der KI ermittelt wird, was ist denn das anderes als Aufwand durch mehrere Versuche?

Genau genommen stelle ich mir eine KI-gestützte Suche sogar ein wenig mühsamer vor als bisherige Suchen, da mir das Korrektiv in Form einer mit „falschern Suchergebnissen“ ausgestatteten Suchergebnisseite – aus ihnen kann man ja oft ableiten, in welche Richtung die Query verstanden wird – fehlt. Und auch der Komfortfaktor fällt weg. Konnten wir bei Google noch irgendwelche Begriffe in die Suchmaske schreiben und Google hat uns halbwegs unsere Intention abbildende Vorschläge und im Anschluss recht passable Ergebnisse geliefert, so zwingt uns SearchGPT durch seinen dialogischen Aufbau, gleich ganze Fragen zu formulieren, um so den Kontext unseres Anliegens und die zur Ermittlung der Suchergebnisse notwendige Intention besser zu verstehen. Was OpenAI als Feature verkauft („conversational capabilites“) ist in meinen Augen ein Reframing einer Optimierung der Query. Nur dass eben die Maschine durch ihre Antwort (OpenAI) und nicht mehr durch eine Liste unpassender Suchergebnisse (Google) Feedback liefert.

Ich vermute, ChatGPT hat uns alle lange genug darauf hintrainiert, gute, also präzise und Kontext vermittelnde Prompts zu schreiben. Also werden wir von Haus aus bessere Fragen an SearchGPT stellen, somit auch im Schnitt bessere und passendere Antworten erhalten, was bei den meisten vermutlich den Eindruck erwecken wird, SearchGPT sei die überlegene Suchmaschine. In Wirklichkeit sind wir nur das besser trainierte Hündchen, das seinem Meister präziser vermittelt, was es will. Dass Google seine AI-Bemühungen nicht in die Richtung entwickelt hat – ins Training der Userinnen und User, nämlich, bessere Queries zu verfassen, wirkt angesichts dieses Aspekts fast schon wie ein Armutszeugnis des Gorillas auf dem Markt.

KI generierte Suchergebnisse benötigen von Menschen gesicherte Informationen 📝

In der Ankündigung zu SearchGPT nennt OpenAI einen weiteren Aspekt, dessen Umsetzung bei mir etliche Warnsignale triggert: SearchGPT will Informationen von relevanten Quellen in Echtzeit bereitstellen können. Das bedeutet im Umkehrschluss, dass es einen direkten Draht von Contentprovider und Informationslieferant zur Suchmaschine geben muss. Und das wiederum bedeutet – niemand gibt seine Daten ohne Gegenleistung her – dass es Vereinbarungen zwischen den Anbietern von Information und den Verarbeitern von Information geben muss. Doch alles der Reihe nach.

Ich vermute, dass sich OpenAI einer ähnlichen Technologie bedient, die auch Bing nutzt. Dabei informieren die Anbieter von Information die Maschine aktiv über neue Inhalte, ähnlich einer Push-Benachrichtigung. Das Google-Modell, das nur zur Erinnerung, funktioniert genau andersrum: Google holt sich die Informationen in einer dem Ermessen der Suchmaschine obliegenden Frequenz (Pull).

Auch die verschiedenen Hinweise auf die Zusammenarbeit mit Verlagshäusern deuten für mich stark auf eine vertragliche Verquickung zwischen Informationsanbieter und Suchmaschine hin. Gewissermaßen verständlich, dass sich SearchGPT nicht auf „das Internet“ verlassen kann, da vieles – Google leidet momentan ja drunter – unerträglich schlechter, ironischer Weise mit KI verfasster Crap ist.

Dass OpenAI vertragliche Vereinbarungen mit den wohl gar nicht mehr so zahlreichen Quellen, die ihre Inhalte ohne Zuhilfenahme von KI veröffentlichen, abschließen muss, um die Qualität seiner Suchergebnisse halbwegs garantieren zu können, liegt für mich auf der Hand und stellt einen weiteren Höhepunkt in der in einigen Aspekten absurd wirkenden Situation des Arbeitens mithilfe von KI dar.

Ich muss das noch einmal wiederholen, weil dieser Aspekt in meinen Augen an Ironie kaum zu überbieten ist: Der größte oder zumindest bekannteste Anbieter von künstlicher Intelligenz muss sich, um seine von KI gestützte Suchmaschine qualitativ hochwertige Ergebnisse produzieren lassen zu können, in vertragliche Vereinbarungen mit den Anbietern von Information retten, in denen wohl mehr oder weniger sichergestellt wird, dass die veröffentlichten Informationen von Menschen verfasst oder zumindest einer menschlichen Endredaktion und Qualitätssicherung unterzogen wurden.

Dieser Aspekt, das nur nebenbei, stellt natürlich auch den Google-Deal mit Reddit oder die Vereinbarungen, die uns Apple mit seiner Apple Intelligence sinngemäß als „Nutzung hochwertiger Quellen“ verkauft, in ein anderes Licht. Da geht es vermutlich gar nicht so sehr um qualitativ hochwertige Informationen im Sinne der Recherche und der redaktionellen Arbeit, sondern schlicht und einfach um die vertraglich verbindliche Zusage vonseiten der Informationsanbieter, von Menschen verfasste – und nicht von einer KI generierte – Inhalte auszuliefern. Die Sache ist also keine Verpflichtung gegenüber den Kundinnen und Kunden, wie das gerne im Marketing der großen Anbieter von Künstlichen Intelligenzen dargestellt wird, sondern eine von der Technologie erzwungene Notwendigkeit. Füttert man die Maschine mit von Menschen produzierten, qualitativ hochwertigen Inhalten, so die Annahme, dann wird die Technologie Ergebnisse produzieren, die so schlecht gar nicht sein können als dass sie das Gros der Menschen nicht als „intelligent“ wahrnimmt. Wenn sich dieser Gedanke bewahrheitet… Was für eine Shitshow!

Darstellungsform und Dialog 🥱

Der dritte Aspekt, auf „natürlichere Art und Weise zu suchen“ ist in meinen Augen die marketingtechnische Legitimierung eines ohnehin von Suchmaschinen bekannten Vorgangs: Passt die erste Anfrage nicht, führe ich eine Präzisierung durch. Und: Habe ich weitere Fragen, ändert sich also mein Begehren, bleibe ich im Kontext meiner Suchanfrage. Und der vierte Aspekt, von Haus aus nicht nur Textabschnitte, sondern gleich multimediale Ergebnisse zu bekommen… ja, eh, das machen andere Suchmaschinen heute auch nicht anders.

Landgrabbing von Menschen verfasster Inhalte 🚜

Im Ankündigungsartikel bei OpenAI ist das unten angeführte Zitat eines CEOs prominent präsentiert. Es ist ein Zitat, das mich aufhorchen lässt, weil ich befürchte, dass die daraus resultierende Handlungsaufforderung für Provider qualitativ hochwertiger Inhalte die dem Internet zugrundeligende Neutralität aushebeln kann. Es geht hier nicht um den oben erwähnten Aspekt der Notwendigkeit socher Inhalte für das Funktionieren der propagierten Technologie, sondern um die Auswirkungen der offenbar notwendigen, vertraglichen Vereinbarungen, die die Technologie mit sich bringen wird.

Sam and the truly talented team at OpenAI innately understand that for AI-powered search to be effective, it must be founded on the highest-quality, most reliable information furnished by trusted sources. For the heavens to be in equilibrium, the relationship between technology and content must be symbiotic and provenance must be protected.

Robert Thomson, CEO News Corp

Wenn ein CEO von „trusted sources“ spricht, von einer „symbiotischen Beziehung“ und von anderen viel zu schön klingenden Begriffen, dann bedeutet das normalerweise im Klartext, dass es einen Deal zwischen zwei Unternehmen gibt. Und wenn nun OpenAI mit einer Suchmaschine an den Start geht, deren Suchergebnisse von Deals begleitet sind, dann bedeutet das auch, dass die Reihung der Suchergebnisse nicht algorithmisch bestimmt ist, sondern letzen Endes durch Verträge. Das stellt natürlich so ziemlich die schlimmste Entwicklung dar, die man sich nur vorstellen kann, egal wie günstig es für Contentprovider werden wird, sich bei SearchGPT zu registrieren und den Bots Zugänge zum eigenen Content zu verschaffen. Denn eine auf Vereinbarungen gestaltete Reihung von Inhalten – bei KI generierten Beiträgen und Antworten müssen wir wohl eher von einer Gewichtung und nicht von einer Reihung der Inhalte sprechen – widerspricht vollständig der Grundannahme unseres Verständnisses von Internet: Dass nämlich alle Inhalte potentiell gleichwertig sind. Und eben nicht einige gleicher.

Was bedeutet das? Wir können miterleben, wie eine Technologie Landgrabbing betreibt und eine Quelle menschlicher Kreativität nach der anderen erschließt, verarbeitet und in mittelmäßigen Content transformiert, der dann dem wenig kritischen Publikum als Zukunft und Fortschritt verkauft wird. Gleichzeitig greifen die Auswirkungen dieser übertriebenen Aufmerksamkeit auf alles, was mit KI aufwarten kann, den Kern eines auf Gleichwertigkeit und Neutralität basierenden Internets an. Kleinere Teilnehmer in diesem Spiel können weniger finanzielle Ressourcen aufwenden als große, sie werden also nachrangig behandelt, wenn sie die Informationen nicht an die Verarbeiter abliefern oder nicht groß genug sind, um die Verarbeiter in eine Vereinbarung zu zwingen. Gegen so einen Zugang hat das alte Google ja richtiggehend non-evil gewirkt.

Suchergebnisse: Nicht ganz richtig ist auch okay 🤷

Weiter oben habe ich den provokativen Vergleich unternommen, uns Suchende als von ChatGPT gut abgerichtet und trainiert darzustellen, um damit aufzuzeigen, dass die Neuigkeit in der neuen Technologie des auf einem Dialogs basierenden Suchens so neu gar nicht ist. Ein anderer Punkt, auf den ich im Hinblick auf die verstärkte Nutzung von KI-generierten Zusammenfassungen (Google) oder eben ausschließlich von einer KI generierten Suchergebnissen (OpenAI) hinweisen möchte, liegt weniger in der Domäne der Technologie oder ihres Umfelds, als vielmehr auf der ihr gegenüber gestellten Seite: uns, nämlich. Wie wirken sich KI generierte Suchergebnisse oder eben derart generierte, vollständige Antworten auf uns aus?

Wir werden früher oder später alle mit den Auswirkungen von SearchGPT und ähnlichen Technologien konfrontiert sein und uns nach immer und immer wieder aufkeimenden Diskussionen über falsche oder eben nicht ganz richtige Informationen die Herausbildung von zwei Lagern feststellen, so meine Annahme. Es wird die einen, die Glücklichen, geben, die den mittels KI produzierten Ergebnissen ohne die Quellen jemals geprüft oder zumindest hinterfragt zu haben, gänzlich vertrauen. Die Glücklichen haben bis zum heutigen Tag immer noch nicht verstanden, wie die Technologie hinter den GPTs funktioniert und sie sind auch nicht bereit, sich damit zu beschäftigen. Sie akzeptieren die Technologie im Auslieferungszustand, glauben an die Marketingversprechen und sind mit den einfach gestrickten, aber halbwegs passabel klingenden Ergebnissen zufrieden.

Auf der anderen Seite wird es die Spielverderber und vermutlich auf die eine oder andere Weise als technologiefeindlich oder rückständig punzierten Mahner geben. Sie werden früher oder später gegen den unendlichen, von der Maschine produzierten Nachschub an minderwertiger Information nicht mehr ankämpfen und nicht mehr auf die kleinen, aber wesentlichen Fehler in den von der Gruppe der Glücklichen freudig präsentierten Ergebnisse hinweisen. Sie werden es besonders schwer haben, denn es ist unendlich mühsam, auf sehr kleine, aber essentielle Fehler hinzuweisen, wenn eine Maschine ganz besonders gut darauf trainiert ist, plausibel wirkende Sätze zu produzieren und damit das Denken zu unterbinden, noch bevor es angefangen hat.

Zu welcher Gruppe von Menschen man gehört, kann man ganz leicht austesten. Hier ein Problem, das Matteo Wong vom Atlantic in einem Promovideo für SearchGPT gefunden hat:

In a prerecorded demonstration video accompanying the announcement, a mock user types music festivals in boone north carolina in august into the SearchGPT interface. The tool then pulls up a list of festivals that it states are taking place in Boone this August, the first being An Appalachian Summer Festival, which according to the tool is hosting a series of arts events from July 29 to August 16 of this year. Someone in Boone hoping to buy tickets to one of those concerts, however, would run into trouble. In fact, the festival started on June 29 and will have its final concert on July 27. Instead, July 29–August 16 are the dates for which the festival’s box office will be officially closed.

The Atlantic

Und? Was ist der erste Gedanken? Ist das ein „kleiner Fehler“, den eine neue Suchmaschine machen kann, ein „Ausrutscher“, der einer Künstlichen Intelligenz, vor allem in der jetzigen Entwicklungsstufe passieren kann? Oder ist das ein der Technologie selbst inhärentes Problem, das, zumindest aus heutiger Sicht, so bald nicht gelöst werden kann? Wer die Schilderung, die Matteo Wong im Atlantic gebracht hat, als kleiner Fehler oder Ausrutscher einer komplexen Technologie abtut, befindet sich bereits im Lager der Glücklichen. Wer den Fehler aber als der Technologie innewohnend ansieht und versteht, wie es zu dieser Falschaussage kommen konnte, im Lager der Kritiker und Mahner. So einfach ist das.

Opfer der KI: Agency und präzise Information 🐂

Da aber das Gros der Suchenden in der Technologie Vorteile für sich entdecken wird, die, das nur nebenbei, vermutlich allesamt auf einer Unzufriedenheit mit bestimmten Situationen in Beruf oder Ausbildung fußen, werden die meisten von uns die Präzision dem Komfort opfern. Details wie die Daten im Beispiel oben werden wir abtun und als „kleine Fehler“ einer komplexen Technologie dezent übersehen wollen. Gleichzeitig werden wir zusehen, wie eine Generation von Suchenden heranwächst, die sich von der Einfachheit eines geführten Dialogs in der Suchanfrage leiten lässt und gar nicht bemerkt – oder schlimmer: die es als unnatürlich empfindet – wenn die Auswahl der Ergebnisse einer Anfrage eigentlich nicht mit dem ursprünglichen Zugang, der ursprünglichen Intention in Bezug auf die Art und Weise von Suchergebnissen übereinstimmt oder sich Fehler einschleichen, die, in Masse, gesichertes Wissen zu „sehr wahrscheinlichen Vermutungen“ degradieren.

Präzision im Sinne der Datenqualität und der menschliche Widerstand gegen ein von einer Technologie geleitetes Vorgehen sind die ersten Opfer der von Künstlicher Intelligenz verursachten Bequemlichkeit im Finden von Informationen. – Ich kann es nur noch einmal sagen: Diese Ungenauigkeiten, diese Fehler durch mangelnde Präzision, mit der wir konfrontiert werden, sind keine Fehler, die passieren, sondern inhärenter Bestandteil der Funktionsweise dessen, was wir Künstliche Intelligenz nennen. Matteo Wong, der das oben angeführte Beispiel dazu gefunden hat, weiter dazu im Atlantic:

Despite the excitement around searchbots, seemingly every time a company tries to make an AI-based search engine, it stumbles. At their core, these language models work by predicting what word is most likely to follow in a sentence. They don’t really understand what they are writing the way you or I do—when August is on the calendar, where North Carolina is on a map. In turn, their predictions are frequently flawed, producing answers that contain “hallucinations,” meaning false information. This is not a wrinkle to iron out, but woven into the fabric of how these prediction-based models function.

Und noch viel härter, allerdings wissenschaftlich argumentiert (und äußerst lesenswert), formulieren das Michael Hicks, James Humphries und Joe Slater in einem Artikel in Ethics and Information Technology, der den provokanten Titel „ChatGPT is bullshit“ trägt. Ihr Argument, stark vereinfacht, lautet, dass die den KI-Modellen inhärente Fehleranfälligkeit nicht als Problem abgetan werden kann, das sich durch Weiterentwicklung legen wird, sondern Teil der Technologie und unvermeidbar ist, somit dem entspricht, was Harry Frankfurt als durch äußere Faktoren verursachte, aber durch eine Tätigkeit (oder hier: Technologie) perpetuierte und somit aufrecht erhaltene Gleichgültigkeit zur Wahrheit charakterisiert. Bullshit eben.

Machine learning systems which produce human-like text and dialogue […] have been plagued by persistent inaccuracies in their output; these are often called “AI hallucinations”. We argue that these falsehoods, and the overall activity of large language models, is better understood as bullshit in the sense explored by Frankfurt […]: the models are in an important way indifferent to the truth of their outputs. We distinguish two ways in which the models can be said to be bullshitters, and argue that they clearly meet at least one of these definitions. We further argue that describing AI misrepresentations as bullshit is both a more useful and more accurate way of predicting and discussing the behaviour of these systems.

ChatGPT is bullshit

Über die eigentliche Gefahr durch von KI geleitetes Denken habe ich hier schon geschrieben und das Argument der Technologie inhärenter Probleme habe ich nun auch schon mehr als genug breitgetreten. Ich bin also am Ende meiner Gedanken zur Veröffentlichung von SearchGPT.

Endlich Schluss: I’m feeling lucky 😌

Ich sehe ein paar problematische Dinge auf uns zukommen1: Wir werden den Quellen, die ein Suchergebnis produzieren, nicht mehr vertrauen können, weil wir sie nicht mehr kennen werden. (Nein, niemand wird das Ergebnis nachprüfen.) Wir werden die Tätigkeit des Suchens und Findens in die Domäne der Interpretation heben müssen, weil wir zukünftig keine Ergebnisse im Sinne gefundener Datensätze, die Fragen beantworten, sondern plausibel klingende, fertige Antworten präsentiert bekommen. Die Listenansicht, die wir alle noch aus Google Suchergebnissen kennen und bei der der letzte Schritt, also die Entscheidung, welcher Quelle wir vertrauen schenken, uns obliegt, wird zugunsten einer von einer KI ausgewählten Quelle oder Quellensammlung fallen gelassen.

Mir kommt die ganze SearchGPT-Sache demnach wie ein Klick auf das I’m feeling lucky bei Google vor, nur eben schöner präsentiert und in einen Dialog verpackt. Wer austesten will, wie wohl sie oder er sich bei der Auswahl eines Ergebnisses beim Klick auf I’m feeling lucky fühlt, sollte sich die Frage stellen, warum dieses Unwohlsein bei von einer KI generierten Antwort (vielleicht) nicht aufkommt. Wer mit der Auswahl von Google kein Problem hat, sollte sich die Frage stellen, warum sie oder er sich nicht immer auf I’m feeling lucky verlassen hat.

Und hey, I’m feeling lucky ist ein Feature und keinesfalls ein Risiko, wenn es um das Recherchieren und um das Finden von Informationen geht. Auf keinen Fall. Ganz bestimmt nicht.

  1. Ich konnte SearchGPT noch nicht selbst testen. Sollte sich irgendetwas an den oben beschriebenen Annahmen und Empfindungen nach Nutzung der Maschine ändern, werde ich das selbstverständlich hier oder in einem Follow-Up-Artikel anmerken. ↩︎

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert