noyb nimmt ChatGPT ins Visier

noyb, Max Schrems' Datenschutzorganisation, nimmt ChatGPT ob erfundener, nicht nachweis- und korrigierbarer Personendaten ins Visier.

noyb, hier des öfteren schon vorgekommen, allen wohl aber durch seinen Gründer Max Schrems und seine Klagen gegen Facebook bekannt, nimmt ChatGPT ins Visier. Der Anlassfall hat drei Ansätze: der Gegensatz von von ChatGPT generierten und den tatsächlichen Daten über eine Person, die Unmöglichkeit des Benennens dafür genutzter Quellen und die Unmöglichkeit, solcherlei Informationen zu löschen oder zu korrigieren. In anderen Worten: Der Hersteller (OpenAI) der Software (ChatGPT) kann nichts gegen die Verbreitung falscher Informationen über Personen tun. Und das geht so nicht.

Ungenaue Informationen sind […] inakzeptabel, wenn es um die Informationen über Einelpersonen [sic!] geht. Seit 1995 besagt das EU-Recht, dass persönliche Daten korrekt sein müssen. Mittlerweile ist dies in Artikel 5 DSGVO verankert. Personen haben laut Artikel 16 DSGVO außerdem ein Recht auf Berichtigung inkorrekter Informationen – und haben die Möglichkeit, ihre Löschung zu verlangen. Darüber hinaus müssen Unternehmen gemäß dem Auskunftsrecht in Artikel 15 nachweisen können, welche Daten sie über Einzelpersonen gespeichert haben und aus welchen Quellen sie stammen. […] Um [das Problem] zu veranschaulichen, können wir einen Blick auf den Beschwerdeführer (eine Person des öffentlichen Lebens) in unserem Fall gegen OpenAI werfen. Auf die Frage nach seinem Geburtstag antwortete ChatGPT wiederholt mit falschen Informationen, anstatt den Nutzer:innen mitzuteilen, dass die dafür notwendigen Daten fehlen. […] Obwohl das von ChatGPT angegebene Geburtsdatum des Beschwerdeführers falsch ist, lehnte OpenAI seinen Antrag auf Berichtigung oder Löschung ab. Die Verweigerung wurde damit argumentiert, dass eine Korrektur der Daten nicht möglich sei.

noyb.eu

Ich bin sehr gespannt, was bei diesem, nunmehr in der rechtlichen Domäne angesiedelten Vorgehen herauskommt, denn wer sich mit der Funktionsweise von ChatGPT beschäftigt hat, weiß, welches Ergebnis zu erwarten ist; das steht allerdings in krassem Gegensatz zu den Versprechungen, die von Unternehmen, die Künstliche Intelligenz as a Service verkaufen, vermittelt werden. Dass aber die gewollte Unschärfe, die uns fasziniert und uns an die „Intelligenz“ glauben lässt, LLMs inhärent ist, wird natürlich bei auf Personen bezogene Daten problematisch. Und je mehr KI-Systeme wie ChatGPT in den Alltag drängen, umso mehr steigt die Anforderung an Präzision bei Datensätzen, die nicht aus statistischen Wahrscheinlichkeiten in Bezug auf Wortfolgen oder andere Kriterien ableitbar sind; wie eben das Geburtsdatum einer Person. Oder die Dosierung eines Medikaments. Oder sonst eine präzise Abfrage, für die Menschen, die sich nie mit der Technologie beschäftigt haben, früher oder später KI-Systeme nutzen werden.

Aus meiner Sicht hat sich OpenAI aber selbst in die Situation manövriert, in der sich das Dilemma entfaltet: Wer seine Technologie beim Bewerben als intelligent anpreist, beim Verteidigen jedoch auf die dem System innewohnenden Fehler verweist, geht eben das Risiko ein, das Organisationen wie noyb ihr Auge darauf richten.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert