Nahezu jedes Facebook-Video ist eine Kopie dessen, was noch vor 10 Jahren die per Mail versendeten, „lustigen“ PowerPoint-Präsentationen waren: Crap. Es hat sich nichts geändert, außer, dass Zuckerberg dran verdient. (Und dennoch ist die Tatsache, dass so viele Videos bei Facebook hochgeladen werden, relevant.)

Eli Pariser, Entdecker der algorithmischen Filterblase („Filter Bubble“), sieht sein Konzept, vor allem im Kontext politischer Kommentare, nicht gänzlich verstanden. Seine Kritik? Filterblasen können das Erkennen (eines aufkommenden Ereignisses) verhindern, sind aber nicht (für das Ereignis selbst) zur Verantwortung zu ziehen. Eli Pariser zu Trumps Wahlsieg:

After the election, I felt gratified that the idea that I had put out in the world was useful to people, but also worried that people were taking it a little too far. The filter bubble explains a lot about how liberals didn’t see Trump coming, but not very much about how he won the election. I think even if you’re talking about the conservative media ecosystem, my guess is that talk-radio, local news, and Fox are a much more important piece of that story than random conservative fake news.

Diese Verständnisverlagerung ist essentiell, denn sie verleiht Medienhäusern und Journalisten wieder mehr Einfluss. Und genau das ist das Thema des restlichen Interviews mit Eli Pariser, in dem er erklärt, wieso Medienhäuser ihre Konsumenten nicht mehr erreichen und dass das Problem eben der Weg und nicht die Nachricht selbst ist.

Dieses Video von VICE News erklärt kurz und bündig, wie Contentmoderation bei Facebook funktioniert und mit welchen, vor allem juristischen Herausforderungen die mit der Moderation beauftragten Firmen zu kämpfen haben.

Facebook verspricht seinen Werbekunden die perfekte, algorithmisch angepasste Werbung. Und dennoch wird die Contentmoderation manuell durchgeführt. Hm. (via @brodnig)

Der ehemals techniklastige New York Times Open-Blog wurde einem Relaunch unterzogen, inhaltlich um alle „digitalen Produkte“ erweitert, und ist nun auf Medium zu finden. Die Entscheidung, den Open-Blog nicht auf der eigenen Infrastruktur zu errichten, ist eigenartig, aber man stützt sich auf die übliche Begründung:

While it may seem strange for us, a publisher, to post on Medium rather than our own platform, we are here for a simple reason: the community. Medium is where so many of our people are, so much of the product, design and development community, so we wanted to be here too.

Wenn der Interessierte nicht zum Content kommt, dann muss wohl der Content zum Interessierten. Aber immerhin, es gibt einen Newsfeed.

Um Attributionsmodelle zuverlässig anwenden zu können, ergänzt Google seine ohnedies schon genauen Daten um den ultimativen Beweis eines Kaufs: der Konzern verknüpft die Daten von Kreditkartenabrechnungen mit seinen Statistiktools.

Google has begun using billions of credit-card transaction records to prove that its online ads are prompting people to make purchases – even when they happen offline in brick-and-mortar stores, the company said Tuesday.

The advance allows Google to determine how many sales have been generated by digital ad campaigns, a goal that industry insiders have long described as “the holy grail” of online advertising. But the announcement also renewed long-standing privacy complaints about how the company uses personal information.

Google kündigt das explizit als ein Produkt namens „Google Attribution“ an. In anderen Worten:

There has to be some association made between a purchaser, whether they have seen an ad, and how that campaign was delivered — through social media, a general website, and so forth. Therefore, there must be enough information to correlate the three factors, which is enough information for specific purchases to be tracked back to an individual. If there isn’t that level of granularity, the service is pointless, isn’t it?

Google greift Kreditkartendaten ab, Facebook erklärt Zahlen für irrelevant. Und doch lassen beide keine Chance aus, noch mehr Daten, nun eben auch offline, abzuschöpfen, wo nur möglich.

Both products rely on treading a very fine line between determining the success of an ad campaign and tracking users on an uncomfortably fine level […] This feels downright creepy, and it’s the kind of thing only Google and Facebook can do because they’re entrenched into the fabric of the web. That should probably scare you in its own right: these two companies know exactly who uses the web better than anyone else. And, now, they know your offline activities too.

Ich finde es spannend, dass sowohl Facebook als auch Google die Notwendigkeit für das Sammeln dieser Daten mit der Verbesserung der jeweiligen Werbeangebote argumentieren. In jedem Fall aber ist die Verknüpfung von Offlinedaten mit Onlinedaten über lange Zeiträume hinweg „creepy as hell„. Oder, in anderen Worten: Die Wahrscheinlichkeit, dass Google über die mit Kreditkarte getätigten Einkäufe einer Person bescheid weiß, liegen bei 70%.

Ein JSON-formatierter Feed ist eine gute Idee, daher ist hier ab sofort zusätzlich zum sonst üblichen RSS auch ein JSON-Feed verfügbar: mkln.org/feed/json. Nichts zu danken, es war nicht mehr Arbeit als ein Plugin zu installieren.

Was ist ein Feed? Bevor Twitter, Facebook und andere Social Media-Dienste zu Aggregatoren geworden sind, die jeder Nutzer händisch durchackern muss, um an interessante Inhalte zu gelangen, gab es Newsfeeds. Newsfeeds sind XML-, oder nun eben JSON-formatierte Ausgabeformate von Websites, die von Newsreadern abgegriffen und zwischengespeichert werden können. Damit kann jeder Nutzer einen individuellen Stream an Nachrichten in seinem Newsreader erstellen und diesen auch von einem zentralen Punkt aus lesen. (Nicht eine Person, wie bei Social Media, steht damit im Mittelpunkt, sondern die Nachrichtenquelle.)

Da dieses System kaum Möglichkeiten zu Tracking, Analytics und Werbeeinblendungen bot, wurde es zerstört. Google hat Newsfeeds von zwei Seiten aus angegriffen: Einerseits wurde ein System errichtet, das Newsfeeds neutraler Plattformen unter einer bestimmten URI in allen verfügbaren Formaten anbot: FeedBurner. Gleichzeitig hat Google den besten Newsreader kostenlos online gestellt und damit die Alternativen nahezu vernichtet: Google Reader. Sobald FeedBurner und Google Reader mehr oder weniger zu Synonymen für Newsfeeds geworden sind, hat Google beide Produkte relativ überraschend im Jahr 2013 abgeschaltet. Nur ein Bruchteil der Nutzer hat sich danach um einen der neuen, kostenpflichtigen Newsreader bemüht.

Umso mehr freut es mich, dass sich jetzt neue Initiativen (wie eben JSON-Feed) um die Verbesserung bzw. das Wiederbeleben des Newsfeed-Systems bemühen.

Auf Quora kam die Frage auf, warum Deutsche so wenig patriotisch seien. Jens Böttiger hat dazu eine interessante Antwort verfasst:

Germans ARE patriotic.

In America you show patriotism by attaching a full size US flag on your pickup truck (Or confederate flag for alternative patriotism), singing the anthem before every baseball game, and sending 18 year olds to Iraq so you can later thank them for their service when they roll by you in their wheelchair in Walmart.

In Germany we show patriotism by voting for higher taxes on ourselves to make healthcare and college tuition universally accessible to our less fortunate fellow citizens, and by picking up after one another to keep public spaces clean and nice for everyone.

I guess it gets lost in translation.

Der Thread ist nicht uninteressant, aber wehe, wer einmal in die breitere Patriotismusdiskussion auf Quora einsteigt; Untiefen tun sich auf.

Amazon hat einen Offline-Buchladen eröffnet, in dem Bücher nicht nach kuratierten Listen, Autoren oder Themen sortiert sind, sondern nach von Nutzern gewonnenen Daten, wie zB „mit mehr als 4 Sternen bewertet“ oder „Personen, die Buch X gelesen haben, haben auch Buch Y gelesen“. Jason Kottke dazu:

Other bookstores have books arranged according to best-seller lists, store-specific best-sellers, and staff recommendations, but I’ve never seen any store layout so extensively informed by data and where they tell you so much about why you’re seeing each item. […] It’ll be interesting to see if Amazon’s approach works or if people will be turned off by shopping inside a product database, a dehumanizing feeling Frommer hints at with “a collection of books that feels blandly standard” when compared to human curated selections at smaller bookstores.

Amazon scheint in seiner Offline-Buchhandlung ein online funktionierendes Konzept anzuwenden, übersieht (oder ignoriert) dabei aber die ursprüngliche Bedeutung des Begriffs Browsen, die gerade in einer Buchhandlung vermutlich in ihrem ursprünglichsten Sinn vorzufinden ist.

Die Firma, die Videos nach nur 3 Sekunden als „gesehen“ markiert und Werbekunden falsche Zahlen ausliefert, sich aber gleichzeitig weigert, Rohdaten zur Analyse durch Dritte herauszugeben, versucht ihre Werbekunden nun davon zu überzeugen, dass Zahlen eigentlich gar nicht so wichtig sind und nur der relative Vorteil zählt.

Facebook will durch die Aufteilung von Nutzern in Test- und Kontrollgruppen beweisen, dass Werbung, die Facebook als Kanal inkludiert, eher zum Erfolg führt als Werbung, die Facebook als Kanal nicht inkludiert. Natürlich erhält niemand Zugang zu den Rohdaten; stattdessen soll das „eher zum Erfolg führen“ durch ein Facebook-Programm namens „Conversion Lift“ ermittelt werden.

Which gets back to the original problem—advertisers feeling stymied by Facebook are once again being asked to trust Facebook to check its own homework. The choice for advertisers would seem to be trusting Facebook to do the kind of truly randomized controlled trial of which it is capable, or relying on a third party to conduct an approximation without the access.

Facebook hat eine ganze Liste von Erfolgsgeschichten zusammengestellt; eine davon, General Motors, hat Lift in Anspruch genommen. Natürlich entspricht das Ergebnis (der Kampagne) den Analysen von Lift. Was mich an der ganzen Sache jedoch stört, ist, wie Häufigkeit mit Kanal gleichgesetzt, wenn nicht sogar verwechselt wird. Wenn ein Nutzer einer Kampagne öfter ausgesetzt ist, und das ist er, denn Facebook zeigt die Werbung in der Kontrollgruppe ja gar nicht erst an, was genau erklärt dann, dass es der Kanal Facebook war, der zum Erfolg geführt hat, und nicht schlichtweg nur die Häufigkeit des Marketingkontakts?

Die polnisch-österreichische Schauspielerin Ewa Placzynska, die zwischen Warschau, Wien und Toronto pendelt und schon mal über den Leberkas Pepi bloggt, erklärt, wie das wienerische Wort „Oida“ alles und nichts, Himmel und Erde, Universum und Kaffeesatz, Leben und Tod sein kann. Oder, in ihren Worten:

Did you want to learn the intricacies of German in Austria? All you need to know is this one little word and you can master any situation!

Oida!

Scott Gilbertson hat eine sehr starke Meinung zu Googles Accelerated Mobile Pages (AMP). Sein Argument? Das AMP-Format hat nichts mit Ladezeiten in mobilen Netzwerken zu tun. AMP ist von der Marke befreiter Gratiscontent für Google.

As with anything that eschews standards for its own modified version thereof, it’s about lock-in. Tons of pages in Google AMP markup mean tons of pages that are optimized specifically for Google and indexed primarily by Google and shown primarily to Google users. It’s Google’s attempt to match Facebook’s platform. And yes, Facebook is far worse than AMP, but that doesn’t make Google AMP a good idea. At least Facebook doesn’t try to pretend like it’s open. […] Google AMP, by its design, disassociates content from its creator. Google does not and never has cared about creators, all it wants is content, the more the better to churn through its algorithms, surround with advertising and serve up to the world.

Ich finde die Idee dahinter und die Herangehensweise zur Beschleunigung der Ladezeiten von Websites genial. Ein reduziertes HTML-Format – AMP, eben – per se ist absolut in Ordnung, da es, wie ohnedies im Artikel angemerkt, all den Crap, den Webdesigner in ihren Seiten haben wollen (oder schlechte Programmierer ungefragt einbauen) entfernt. Die Anbindung an Google ist jedoch, auch wenn es einen Backlink gibt, in der Tat giftig. Zusammengefasst: Funktion und Technologie ja, die Politik dahinter nein.

Niemand, der sich mit Suchmaschinenoptimierung (SEO) beschäftigt, würde empfehlen, ein Keyword mit nur einem einzigen Satz abzudecken. Eine Seite, die auf diese Keyword optimiert werden sollte, würde, so die Annahme bisher, keinesfalls Relevanz erlangen. Selbst die eingefleischtesten SEO-Berater würden es nicht wagen, relevanten Content spärlich zu präsentieren.

Und dennoch: Ein Artikel, den ich vor mehreren Jahren (aus einem völlig anderen Grund) geschrieben habe, hat es auf die Suchergebnisliste, und dort sogar auf Platz 2, also unmittelbar nach dem zugehörigen Wikipedia-Eintrag, geschafft. Und meine Statistiken zeigen, dass diese Suche (aus welchem Grund auch immer) häufig durchgeführt wird.

Was lernen wir daraus? Die Anzahl der Wörter ist für Google mittlerweile nahezu irrelevant geworden, ebenso – offenbar – der Gesamtkontext einer Website1. Sofern die Suchmaschine eine klare Antwort auf eine klar gestellte Frage im Inhalt feststellen kann, und das ist im Artikel definitiv so, wird ein auch noch so kurzer Eintrag plötzlich relevant. Die Art des Beitrags – in dem Fall lediglich ein kommentierter Link mit völlig anderem Fokus – ebenso. Das ist keine neue Erkenntnis, aber aufgrund des so spärlichen Inhaltes für diese Suchbegriffe, doch immer wieder erstaunlich.


  1. Was hat meine Website mit Krankenhäusern zu tun? Gar nichts. 
Do NOT follow this link or you will be banned from the site!