Ruf nach Datenschutz mit der Payback-Karte im Säckel

Die deutsche Wissenschaftsministerin über die Doppelmoral beim Thema Datenschutz: Payback und Apple Health ja, aber Gesundheitsdaten zu legitimen Forschungszwecken an deutschen Unis nein.

Die deutsche Wissenschaftsministerin Dorothee Bär antwortet in einem Interview mit der FAZ auf die Frage, ob der Datenschutz die (Gesundheits-) Forschung lähme, bejahend, aber kritisch, und mit einem Verweis auf die Diskrepanz in der Wahrnehmung privaten und staatlichen Datensammelns aufseiten der Bevölkerung.

Sie betont, dass die Gesundheitsforschung in einem europäischen Land wie Deutschland nicht mehr mit asiatischen Datenbanken funktionieren kann und schlägt ein Opt-Out-System vor, um an Gesundheitsdaten zu gelangen. Den einhergehenden Aufschrei nach Datenschutz kontert sie mit einem Verweis auf die bei den lautesten, nach Datenschutz schreienden Hälsen herrschende Doppelmoral: Viele, die die Datennutzung zu legitimen Forschungszwecken ablehnen, geben ihre Daten oft bedenkenlos und nicht-anonymisiert an Technologiekonzerne wie Apple weiter oder nehmen an kommerziellen Datensammelprogrammen wie Payback teil.

Da ist was dran. Ich mag nicht, was sie da sagt, aber da ist was dran.

7 Kommentare

  1. Ich weiß nicht.

    1. Der Vergleich hinkt. Dass sie ausgerechnet Apple nennt ist lustig. Aber nehmen wir mal Microsoft: Ich weiß oft überhaupt nicht, was die sammeln. Und ich habe oft gar keine Wahl, wenn ich einen Dienst nutzen will (siehe Meta, da hatte ich neulich ein Pop-Up das im Grunde sagte: zahle oder gib uns deine Daten, oder gehe).
    2. Finde ich es genauso bedenklich, wenn der Staat hier alle Daten sammeln will. Frau Bär sollte sich mal mit jemandem unterhalten, der sich auskennt, wie die Daten in China gesammelt werden und was Bürgerrechtler davon halten.
    3. Eine Payback-Karte zu haben ist so ein Hufeisen-Argument: Wer eine Payback-Karte hat, darf nicht über Datenschutz meckern? Häh? Es gibt sehr wohl einen Unterschied – ich nutze meine Payback-Karte bspw nur beim Tanken (an den immer gleichen 2 Tankstellen); ich habe meine Zweifel, dass das eine sehr nützliche Information oder datenschutzrechtlich bedenklich ist – *ich* bestimme dort, was, wann und wo ich meine Daten hergebe. Und ich bestimme, ob ich einen Einkauf dokumentiert haben will – und dass es nur ein Einkauf, und nicht mein Besuch beim Arzt, Bewegungsdaten oder sonstwas sind.
    4. Statt Bundesbürgern dauernd Vorwürfe zu machen („Ihr arbeitet nicht genug“, „Ihr zahlt nicht genug von eurer Rente ins Sozialsystem ein“, „Ihr sackt zu viel Bürgergeld ein“, „Ihr gebt nicht genug Daten frei“) könnte man es ja – saudumme Idee – mal mit Ermunderung und Motivation versuchen. Oder Frau Bär unterhält sich mit dem Gesundheitsminister und man macht manl eine gemeinsame Anstrengung zum Thema Gesundheit, Forschung und Organspende. Aber ich weiß, wilde Idee – das würde Einsatz statt sinnloses Bürgerbashing bedeuten.

    • Zu den konkreten Verhältnissen in Deutschland kann ich nichts sagen, „da ist was dran“ hatte ich auf die Doppelmoral (und unabhängig vom konkreten Beispiel – das war ja nur der Anlassfall) bezogen: Auf der einen Seite gibt es ominöse Services oder, wie du ja selbst sagst, Datensammler, von denen man eigentlich überhaupt nicht weiß, wer das genau ist bzw. was hier genau gesammelt wird, aber niemand sagt etwas; alle akezptieren brav, dass Unmengen an Daten irgendwohin abfließen. Auf der anderen Seite brauchen Universitäten und andere Einrichtungen Daten, um die Wissenschaft voran zu bringen, doch da schreien alle „Datenschutz!“, obwohl sie hiervon am ehesten profitieren könnten. Es geht nicht darum, dass Daten gesammelt werden, sondern wie friktionsfrei es den einen gelingt, und mit wieviel Widerstand die anderen zu kämpfen haben. (Letzteres zurecht, obwohl ich das ja, das habe ich auch schon immer wieder einmal hier erwähnt, auch etwas relativiert sehe.)

    • Der Unterschied, den Doro Bär einfach nicht versteht, und das ist wohl ein Generationen Ding:
      Consent.
      Wenn ich eine Payback / ReWe App nutze, dann stimme ich bewusst der Nutzung meiner Daten zu (Opt-In). Selbst wenn ich das aus Naivität oder Dummheit mache, geschieht dies mit meiner Zustimmung. Das ist bei einem Opt-Out nicht der Fall.

  2. Kelbers Law besagt: Wann immer es heisst „irgendwas Sinnvolles geht nicht, wegen Datenschutz“ liegt es NICHT am Datenschutz. (Ulrich Kelber, 2019-2024 Bundesbeauftragter für den Datenschutz und die Informationsfreiheit)

    Payback muß ich nicht nutzen, Apple Health (das übrigens ausschließlich auf dem iPhone gespeichert ist) auch nicht. Und gegen Tracker und sonstigen Kram, der meine Daten abgreifen will, kann ich mich auch gut wehren.

    Meine Gesundheitsdaten soll aber jeder zu Forschungszwecken nutzen können und ich habe da keinen Einfluss darauf? Das ist ja wohl ein himmelweiter Unterschied. Und anonym sind diese Gesundheitsdaten kaum. Da läßt sich leicht ein Profil des Patienten erstellen.

    Daß die ePA vom Design her schlecht ist, hat der CCC leider oft genug nachweisen können. Logisch, daß die Bürger dann kein Vertrauen haben.

    • Bin bei dir, Martin. Ich habe Kelber immer gelesen als: „Wenn etwas schiefgeht und es wird dem Datenschutz in die Schuhe geschoben, dann lag es nicht am Datenschutz“, aber so oder so bestätigst du ja implizit auch, was hier ganz allgemein gesagt wird: Apple Health, zum Beispiel, also ein System, das mit unseren Gesundheitsdaten arbeitet, bringt dem dahinter stehenden Unternehmen viel, der Allgemeinheit wenig. Klar, man muss Apple Health nicht nutzen, aber sehr viele nutzen es (und darum geht es!) ohne mit der Wimper zu zucken. Und zwar nicht nur auf eine Art und Weise, die die Daten selbst am Gerät belässt. Kaum jemand hat ein Problem, die Daten mit Strava und anderen definitiv Cloud- und US-basierten Services zu verknüpfen, womit das Argument „man muss ja nicht“ insofern wieder aufgehoben ist, da es schlichtweg dem Nutzungsverhalten nicht entspricht. Und Strava ist da noch bescheiden. Ich will gar nicht wissen, wieviele Blutbefunde und andere medizinische, höchstgradig persönliche (Gesundheits-) Datensätze bei ChatGPT und anderen KIs hochgeladen werden, um dort Pseudodiagnosen und andere Inhalte zu erhalten.

      Also, um es zu verdeutlichen: Es geht nicht um das, was man am Papier tun kann, sondern darum, was da draußen tagtäglich passiert; ohne, dass sich auch nur irgendwer über die Datenschutzpraktiken beschwert (Ausnahmen bestätigen die Regel). Und diese Entscheidung vonseiten der Menschen, die diese Services nutzen, steht zur Debatte, nicht die Datensammlung an sich. Warum sage ich dann aber, ich sei bei dir, wenn dein Kommentar doch genau diesen Punkt gewissermaßen infrage stellt? Weil ich mir sicher bin, dass wenn den einzelnen privaten Diensten die gleiche mediale Aufmerksamkeit zukommen würde, der nun die Sache mit den Gesundheitsdaten ausgesetzt ist, der gleiche Aufschrei stattfinden würde. (Nur redet halt keiner außer Leute vom Fach oder Interessierte darüber; das ist ein Problem.)

      Wenn diejenigen, die die Services nutzen, genauso aufgeladen über die Konsequenzen informiert wären und sanktionsfrei agieren könnten, gäbe es weit mehr Diskussion und Problembewusstsein. „Sanktionsfrei“? Ja, denn so lächerlich es auch sein mag, eine Smartwatch zu tragen oder nicht, weil man sich in eine argumentative Ecke gestellt hat, wird, davon bin ich überzeugt, als Sanktion wahrgenommen. Eine, die man sich zwar selbst auferlegt hat, aber eine, die real ist.

      Das Momentum des Unterschieds in der Wahrnehmung der ganzen Datenschutz- Datennutzungs- und Datenabfluss-Debatte liegt also hierin: Die einen tun es still und leise, bei den anderen wird die Sache laut offengelegt und der Diskussion ausgesetzt. Und wofür entscheiden sich die Menschen? Für die Fiktion der Möglichkeit einer Entscheidung, denn bei Apple, Strava, ChatGPT usw. muss man ja nichts hochladen. Alle, die sich eine Smartwatch kaufen, nutzen sie ausschließlich, um die Zeit angezeigt zu bekommen. Ganz bestimmt. Alle, die Fitbits-Derivate, Wearables und andere Gadgets nutzen, entscheiden sich gegen die Datennutzung. Ja, sicher. – Das ist in meinen Augen reine Fiktion und entspricht nicht den realen Begebenheiten, die gerne aus der Diskussion genommen werden, wie wenn sie nicht existierten, auch wenn sie entscheidend sind.

      In anderen Worten: Es gibt – ich lasse mich wirklich sehr gerne eines Besseren belehren und bin ehrlich für jedes Gegenargument offen und dankbar! – eine riesige Diskrepanz zwischen der faktischen Datennutzung und der Illusion, Kontrolle über die Datennutzung (durch Dritte) zu haben. Doch die Illusion greift unverhältnismäßig stark, wenn über Gesundheitsdaten in Zusammenhang mit Staat oder Wissenschaft (besonders, wenn in der Politik diskutiert) gesprochen wird.

      Ich glaube, selbst wenn man es den Menschen individuell ermöglichen würde, ihre Daten freizugeben oder nicht, würden sie es nicht tun, weil eine nähe zum dahinter stehenden Akteur besteht. Die Universität, das Bundesland, der Staat – alles Akteure, die nicht so abstrakt daherkommen wie das undurchsichte Firmengeflecht, das Apple, Google, OpenAI, Strava usw. darstellt. (Meine Güte, jetzt fühle ich mich hier schon wie jemand, der das Datensammlen durch den Staat verteidigt. Keinesfalls ist dem so, nur damit das klar ist! Hier geht es um das Datenschutz-Argument in Zusammenhang mit der Nutzung von Gesundheitsdaten, nicht um die Nutzung der Daten an sich!)

      Hier, so meine ich, weswegen ich die Aussage der Ministerin mit „da ist was dran“ kommentiert habe, entpuppt sich die Doppelmoral und die ja wirklich hochgradig zu kritisierende Haltung: Da, wo man wirklich etwas bewirken könnte, wenn es mit den Daten Probleme gibt (Stichwort Rechtsmittel), herrscht Ablehnung, Skepsis und Misstrauen. Da, wo man realistisch betrachtet keine Chance hat, werden die eigenen Daten bereitwillig zur Verfügung gestellt. – Aber vielleicht, und damit schließt sich der Kreis wieder zum Hrn. Kelber, gilt ja – und das gilt wohl sowohl für Deutschland, aber auch, wenn nicht sogar viel mehr auch für Österreich -, dass hier mit einer Art Hauruck-Digitalisierung die nötige Entwicklungszeit fehlt und die Bevölkerung mit technologischen Plänen überstürzt konfrontiert wird, somit nicht vorbereitet und in der Wahrnehmung der Sache in einem anderen Kontext als dem instinktiv ablehnenden geschult werden kann.

      Deshalb: DANKE (in Großbuchstaben!!) für den Hinweis auf EPA und CCC. Ich empfehle allen, die sich mit dem Thema näher beschäftigen wollen, den CCC-Vortrag „Whatever it takes!„, der sich äußerst kritisch mit dem Thema befasst und auch noch mein momentan allerliebstes Thema, die Datennutzung für KI & Co., behandelt. Denn würde man/der Staat so agieren, wie es dort in Anmerkungen und Kommentaren als ein Idealfall skizziert wird, dann wäre es gar nicht mehr so logisch, dass die Bürger kein Vertrauen haben. Sie würden auf den Aspekt des Vertrauens nämlich gar nicht mehr so sehr angewiesen sein, da sie das Hauptaugenmerk ihrer Meinungsbildung in Richtung Wissen (und eben nicht in Vertrauen) verlagern würden.

      Meine Güte, sind wir gerade wieder beim Bildungsthema angelangt?!

  3. Ja, du kannst extrem wenig Menschen die Gefahr durch die sorglose Freigabe ihren Daten deutlich machen. Es geschieht ja unbemerkt, ist so schwer verständlich zu erklären (zumindest für mich) und kaum jemand hat bisher negative Erfahrungen gemacht. Ich bemühe mich, für mich und meine Familie da Schutzmöglichkeiten zu finden und zu nutzen. Aber es ist schwer, ein ewiger Kampf und ermüdend.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert