CryptoParty #22: Filter Bubbles

Die 22. CryptoParty fand nicht im Metalab, sondern im HTU-Großraum der TU Wien statt. Thema: „Filterbubble, was ist das und welche Vor- und Nachteile hat dieses Phänomen für mich?“ Bevor das Thema jedoch diskutiert wurde, nahm MacLemon dem Auditorium mit einem Rückblick in der Rubrik „Was seit der letzten CryptoParty geschehen ist…“ wieder einmal die Hoffnung auf die Existenz eines Hausverstands und auf die Möglichkeit der kryptographischen Verbesserung der Welt.

Das Hauptthema, „Filter Bubbles“, wurde, soweit ich das mitbekommen habe, durch heftiges Fürsprechen seitens Jasmin Engelhart in den Themenbereich der CryptoParty (Wien) mit aufgenommen, wofür ich ihr sehr dankbar bin. Ebenso, wie für die Präsentation (zusammen mit Nikolaus Pöchhacker) und die anschließende Moderation der Diskussion. Besonders gefallen hat mir an der Art des Vortrags und der Herangehensweise, dass die Präsentation des Themas von dem sonst üblichen Fokus auf technische Anwendbarkeit abgewichen ist und gesellschaftlichen wie gesellschaftspolitischen Fragen zu mehr Präsenz verholfen hat, was sich in einer lebhaften Diskussion niedergeschlagen hat. Großes Lob!

Spätestens im Februar 2011 wurde mit Eli Parisers TED-Talk über Filter Bubbles bekannt, dass die Informationen, die wir online finden, keineswegs neutral und objektiv, sondern auf unsere „Bedürfnisse“ zugeschnitten und personalisiert sind. Suchen wir nach Informationen, so sehen wir nicht die Nachrichten („an sich“), sondern eine Version davon, die von einem Algorithmus für uns angepasst wurde („für mich“). Je nachdem, was dieser Algorithmus aus unserer Surf-Historie ablesen, aus Trackingskripten erfahren und aus zugekauften Datenpaketen durch Analyse extrahieren kann, werden uns Nachrichten und Informationen in einer Reihung angezeigt, die einem für uns automatisiert ermittelten Interessenprofil entspricht. Bewertet uns der Algorithmus auf Basis dieser Daten als eher dem politisch rechten Spektrum zugehörig und wenig an Sport interessiert, dann bedeutet das nicht nur, dass wir kaum mit Nachrichten über die Fußball-Weltmeisterschaft konfrontiert werden, sondern auch, dass uns die politische Meinung einer eher dem linken Spektrum zugeschriebenen Person weniger einfach erreichen wird als die einer Person des rechten Spektrums; auch wenn beide Statements zum gleichen Thema abgegeben haben und wir nach genau diesem Thema suchen. Der Algorithmus bestimmt, welche Relevanz eine Nachricht für uns hat und entscheidet auf Basis dieser Berechnung, welche Nachrichten uns schneller, weiter oben in den Suchergebnissen, leichter und einfacher erreichen, und welche schwieriger oder mit mehr Aufwand gefunden werden können.

Nein, Suchergebnisse und Nachrichteninhalte in der Reihenfolge algorithmisch ermittelter Relevanz darzustellen ist keine Zensur, es wird ja nichts von uns ferngehalten. Aber die individuell abgestimmte Sortierung von Suchergebnissen, die nicht mehr (umgekehrt) chronologische Abfolge von Nachrichtenströmen und die [hier Beeinflussungskriterium einsetzen] von [hier Datensatz einsetzen] kann, vor allem bei der unnachgiebigen Gleichmäßigkeit, mit der Computersysteme arbeiten, auf Dauer zur unbewussten Verschiebung des Blickwinkels jedes einzelnen führen. Dabei geht es nicht ums argumentative Ändern einer Meinung oder (in-) direkte Handlungsimperative, sondern um die Verzerrung der Wahrnehmung an sich. Und genau darin liegt der Stein des Anstoßes. Argumente wandeln sich im Idealfall durch Gegenargumente zu Diskussionen und ermöglichen einem Individuum das Für- oder Widerhalten auf Basis breit gefächerter und genügend plausibler Begründungen. Handlungsimperative werden durch Starre ignoriert, im Protest abgewiesen oder durch Zurwehrsetzen herausgefordert. Die Auseinandersetzungen mit direkten Mitteln sind wir Menschen gewohnt. Uns aber gegen als natürlich wahrgenommene Reihungen eines (unsichtbaren) Algorithmus entgegenzustellen, ist uns fremd. Nicht nur, dass die wenigsten über die Existenz digitaler Zwillinge in Profildatenbanken bescheid wissen; selbst diejenigen, die sich des intentionalen Tuns algorithmisch ermittelter Interessenprofile bewusst sind, haben häufig keine Ahnung, wie und was sie dagegen tun sollen.