Ein blaues T-Shirt löst kein Problem – oder – Mehr Facebook gegen zu viel Facebook

Der ehemalige Facebook-Manager Chamath Palihapitiya hat vor kurzem mit einem Statement über die zerstörerische Wirkung von Social Media aufhorchen lassen. Der Sog, mit dem seine Aussage aufgenommen und online verteilt wurde, beweist, dass er einen Nerv getroffen hat.

Die Reaktion von Facebook auf die massive Kritik Palihapitiyas, strotzt nur so von Ahnungslosigkeit, wie mit dieser Situation umzugehen ist. Bei Facebook ist allen klar, dass Palihapitiya recht hat und dass aus Machine Learning gewonnene Algorithmen keine Lösung für die angesprochenen Probleme sind. Auch der Blogpost von zwei für Facebook arbeitenden Wissenschaftlern, der wohl als gewichtiges Geschütz aufgefahren werden sollte, stärkt Palihapitiyas Argument nur umso mehr. Schlimmer noch, die beiden Wissenschaftler tappen in die Falle, Palihapitiyas implizites Argument gegen die Nutzung von Social Media als Möglichkeit und als Lösung für die Nutzung vorzulegen.

Doch worum geht es eigentlich? Chamath Palihapitiyas Kritik an Social Media im Allgemeinen und Facebook im Besonderen zielt nicht auf konkrete, greifbare Teile der Architektur eines Netzwerks ab, sondern auf das hinter dem Aufbau des Netzwerks liegende Verständnis über die Funktionsweise menschlicher Gesellschaften. Facebook, so Palihapitiya, maßt sich an, den Anspruch zu erheben, einen sozialen Kreis, sei es Freunde, Familie oder eben ganze Gesellschaften, durch eine technische Simulation abbilden zu können. Facebook geht dabei nach einem klaren Modell vor, das auf den ersten Blick wie ein sauberer Zugang wirkt: Es teilt menschliche Interaktion auf kleinste, technisch einfach abzubildende Elemente und Funktionen – ein Like, ein Emoticon, ein Kommentar, ein Share – auf und macht es für einzelne Nutzer so einfach als möglich, diese Funktionen zu nutzen. Die Summer dieser Interaktionen, so Facebook, ist dann… soziales Leben.

Sieht man sich die Entstehungsgeschichte von Facebook an, dann macht diese Herangehensweise auch Sinn. In Colleges mit am Campus weit verzweigten Dorms oder in Wohnsiedlungen mit weit verstreuten Häusern waren diese einfachen Möglichkeiten der Interaktion Ergänzung zum vollständig vorhandenen, sozialen Leben, welches sich auf Partys, in Vereinen, beim gemeinsamen Essen oder in den Pausen zwischen Vorlesungen und Seminaren ausgebildet und weiterentwickelt hat. Die Gegenwart ist aber eine andere: Die wenigsten, die auf Facebook miteinander interagieren, haben sich jemals zuvor persönlich getroffen. Sie kennen sich nicht, sondern lesen nur voneinander. Sie können die Abstraktion der Sprache nicht in emphatisches Empfinden überführen und sind auch selbst nicht in der Lage, ihre eigene Gefühlswelt adäquat zu kommunizieren; zumindest nicht mit den Mitteln, die Facebook bereitstellt. Damit meine ich nicht das Problem der abstrahierenden Funktion von Sprache an sich, sondern schlichtweg die Unmöglichkeit, ein ausgewogenes, respektvolles und emphatisches Statement während einer roten Ampelphase in die Facebook-App zu tippen. Das Resultat sind Lügen und Hass, und bei Facebook hat man, wenn ich mir ansehe, welche Lösungsmöglichkeiten bis dato vorgelegt wurden, keine Ahnung, wie damit umzugehen ist. (Dixit Palihapitiya.)

Wo keine Lösung gefunden werden kann, aber Investoren befriedigt werden müssen, geht man für gewöhnlich analytisch vor und versucht die Ursachen für Probleme zu finden und zu lösen. Facebook versucht das auch, nur geschieht das aufgrund der schieren Zahl an Betroffenen nicht durch mühsame und aufwändige, qualitative Methoden, sondern durch Programme, die ohnehin schon durch die Eingabemöglichkeiten eingeschränkte Daten auswerten. Nicht Menschen analysieren und reagieren auf die von Menschen kommunizierten Probleme, sondern (von Menschen programmierte) Algorithmen. Sie versuchen dabei, Probleme zu erkennen, zu lernen und sie so aufzubereiten, dass sie lösbar werden. Dieser Zugang erweckt den Anschein, dass große, komplexe Probleme durch die scheinbar uneingeschränkte technische Leistung in der Tat gelöst werden können. Je mehr Daten man hat, umso besser kann man Probleme lösen. Diesen Glauben nennt Evgeny Morozov Solutionismus: Jedes noch so komplexe Problem kann unter Zuhilfenahme einer technischen Lösung abgebildet, analysiert, simuliert und letztendlich auch gelöst werden.

Doch was bedeutet „technische Lösung“ eigentlich in Zusammenhang mit gesellschaftlichen Fragen? Lassen wir ein fiktives Paar, A und B in unser gedankliches Modell eintreten. A und B leben seit langer Zeit miteinander, es kriselt aber schon länger. Irgendwann kommt der Moment, wo sich A von B trennt; man kann nicht mehr miteinander sprechen ohne zu streiten, man kann nicht mehr beieinander sein ohne in Konflikt zu geraten, man kann sich einfach nicht mehr riechen. Wer auch immer in seinem Leben eine Beziehung hatte, kennt das. Irgendwann kommt der Moment, wo einfach nichts mehr geht und die Trennung in beiderseitigem Übereinstimmen die einzige Lösung darstellt. Es bleibt Psychologen überlassen, das Verhalten zu analysieren, doch sie beschränken sich selbst auf die analytische Rolle und können vielleicht erklären, nicht aber motivieren oder beeinflussen. Facebook, hingegen, maßt sich genau das an und experimentiert mit hunderttausenden seiner User.

Bei Facebook ist man überzeugt, dass genügend Analyse durch Machine Learning und die Ausführung der gefundenen Lösung durch Algorithmen und Künstliche Intelligenz dazu führt, dass A und B ihre Probleme beiseite schaffen und wieder ein liebendes Paar werden. Wie geht die Maschine dabei vor? Stark vereinfacht: Sie beginnt zu kombinieren, zu verifizieren und zu validieren. Wenn A ein blaues T-Shirt trägt, ist B gut gestimmt. Wenn das T-Shirt gelb ist, schlechter. Und wenn das T-Shirt weiß ist, dann ganz schlecht. Hypothese aufgestellt, ein paar Jahre an gesammelten Daten aus Fotos, Videos und sonstigen Statements zur Verfizierung oder Falsifizierung herangezogen, Hypothese bestätigt, noch ein paar Variablen ausgetestet, Lösung gefunden: Je dunkler A sich kleidet (vorzugsweise blau), desto zufriedener ist B. Wenn die Beziehung zwischen A und B gerettet werden soll, dann darf A nur noch blaue T-Shirts tragen.

Auch wenn das Beispiel eben die Funktionsweise maschinellen Lernens und daraus abgeleiteten Handelns stark vereinfacht darstellt, ist es genau diese Herangehensweise – dieser Bullshit! – den wir bei der Problemlösung, wenn es um die Interaktionsdynamiken von tausenden, wenn nicht Millionen von Menschen geht, akzeptieren. Wenn Facebook von der Verbesserung seiner Algorithmen spricht oder sonst einen Deux Ex Machina herbeizaubert, dann ist das genau die Blaue-T-Shirt-Hypothese, der die Maschine folgt. Presseaussendung, Algorithmus bla, Machine Learning bla, Wissenschaftler bla und alles wird gelöst. Bla. Es klingt alles logisch, nachvollziehbar und sauber. Doch menschliches Leben, und vor allem menschliches Interagieren, ist genau das Gegenteil: größtenteils irrational, oftmals kaum nachvollziehbar und alles andere als sauber.

Palihapitiya hat also schon recht, wenn er das Handtuch wirft und seine Beziehung mit Facebook (oder Social Media im Allgemeinen) einfach auflöst. Denn ein blaues T-Shirt löst kein Problem.