YouTube radikalisiert also nicht?

Mark Ledwich und Anna Zaitsev kommen in einem neuen Paper zu dem Schluss, dass der YouTube-Empfehlungsalgorithmus keinen Beitrag zur Radikalisierung leistet.

The role that YouTube and its behind-the-scenes recommendation algorithm plays in encouraging online radicalization has been suggested by both journalists and academics alike. This study directly quantifies these claims by examining the role that YouTube’s algorithm plays in suggesting radicalized content. […] we refute the popular radicalization claims. To the contrary, [our] data suggest that YouTube’s recommendation algorithm actively discourages viewers from visiting radicalizing or extremist content.

„Algorithmic Extremism“ Mark Ledwich und Anna Zaitsev

Gefunden habe ich das bei Tyler Cowens immer empfehlenswerten Marginal Revolution-Blog, der auch auf ein paar Tweets von Mark Ledwich verweist, die diese hochinteressanten Statements (de facto eine Zusammenfassung des Papers in einem Tweet) beinhalten:

It turns out the late 2019 algorithm
*DESTROYS* conspiracy theorists, provocateurs and white identitarians
*Helps* partisans
*Hurts* almost everyone else.

@mark_ledwich

Da das nicht die einzige Studie zu sein scheint, die die geläufige Annahme, YouTube radikalisiere, als nicht nachvollziehbar deklariert, gehe ich nun von der Arbeitshypothese, mit der auch Tyler Cowen schließt, aus: if you are still believing that YouTube radicalizes, you may be floating in a fact-free zone of some kind. – Andererseits bleibe ich bei meiner, in der Überschrift durchs Fragezeichen angedeuteten Skepsis, denn es gab einige, teils entscheidende Faktoren, wie Langzeitbeobachtung oder den Anmeldezustand (User ist angemeldete/nicht angemeldet), die nicht berücksichtigt wurden, was zu scharfer Kritik an dem Paper führt.