Menü

"Mächtigstes Werkzeug zur Radikalisierung": Youtube will mit Wikipedia-Links Verschwörungstheorien entlarven

In der Debatte über den Einfluss sozialer Netze auf die öffentliche Meinung rückt auch Youtube in den Fokus. Die Videovorschläge auf dem Plattform führen Nutzer zu immer radikaleren Inhalten. Gegen Verschwörungstheorien sollen nun Wikipedia-Links helfen.

Von
vorlesen Drucken Kommentare lesen 339 Beiträge
"Mächtigstes Werkzeug zur Radikalisierung": Youtube will mit Wikipedia-Links gegen Verschwörungstheorien vorgehen

Wer anzweifelt, dass die NASA Menschen auf den Mond schickte, findet auf Youtube viele Videos dazu.

(Bild: Alan L. Bean, NASA)

Auf Youtube sollen Videos zu Verschwörungstheorien künftig durch Links auf Wikipedia-Artikel ergänzt werden, in denen die Theorien entkräftet werden. Das kündigte Youtubes CEO Susan Wojcicki auf dem Festival South by Southwest im texanischen Austin an, fasst Wired zusammen. Ihr Unternehmen – das zu Google gehört – reagiert damit auf die lauter werdende Kritik an der Videoplattform, wie sie zuletzt etwa in der New York Times geäußert wurde. Darin war ausgeführt worden, wie Youtubes automatisch zu jedem Video weitere Clips vorschlägt, die radikaler sind. Dadurch führt der Weg über die Vorschläge häufig automatisch hin zu Verschwörungstheorien.

Ein Restaurant, das immer mehr Süßes serviert

Die Kritik an Youtube fällt in eine Zeit, in der in den USA verstärkt über den Einfluss der sozialen Netze auf die öffentliche Meinungsbildung diskutiert wird. Bei Youtube hieß das zum Beispiel, dass Forscher vor der US-Wahl 2016 beobachtet hatten, dass die Algorithmen die Nutzer viel häufiger zu Clips über Donald Trump führten, unabhängig davon, ob sie anfangs etwas über Hillary Clinton oder den späteren Wahlsieger sehen wollten. Wer mit Trump-Clips anfing, wurde wiederum zu Inhalten von Neonazis und Holocaust-Leugnern geführt, schreibt die Forscherin Zeynep Tufekci bei der New York Times. Wer Videos zu vegetarischer Ernährung anschaue werde zu Inhalten über Veganer geführt, Jogging-Clips um Inhalte zu Ultramarathons ergänzt. Offenbar hätten die Algorithmen quasi erkannt, dass radikalisierende Inhalte Nutzer besonders lange auf der Plattform halten. Youtube sei wie ein Restaurant, das süße und fettige Gerichte serviert und wenn wir zuschlagen immer mehr Süßigkeiten und Fett dazu packt, weil "wir das ja wollen".

Die Situation sei deshalb so gefährlich, weil Youtube vor allem unter jungen Menschen besonders beliebt und zu einer der wichtigsten Informationsquellen geworden ist. Wie problematisch das sein kann, hatte sich jüngst nach dem Massaker an einer Highschool in Florida gezeigt. Youtubes Algorithmen hatten schon kurz nach den ersten Berichten Videos favorisiert, in denen Überlebende des Angriffs als Schauspieler diffamiert wurden, die sich lediglich als Opfer ausgeben würden. Einer der Urheber – der Kanal des Verschwörungstheoretikers Alex Jones – bekam für solch ein Video eine Verwarnung. Dabei war es nicht das erste Mal, dass Jones Opfer eines Verbrechens derartig verhöhnte. Tufekci meint, es gebe keinen Grund, ein Unternehmen wie Youtube so viel Geld scheffeln zu lassen, während es möglicherweise dazu beiträgt, Milliarden Menschen zu radikalisieren.

Wikipedia-Links statt Überarbeitung der Algorithmen

Ob Links zu Wikipedia-Artikeln unter Verschwörungs-Clips ausreichen, muss sich nun zeigen. Immerhin verweist Youtube damit auf geschriebene Inhalte, während die Inhalte selbst in Filmchen verbreitet werden. Außerdem werden Nutzer über die automatisch generierten Vorschläge zu den fragwürdigen Clips geleitet, die Erklärungen müssten sie aber gezielt anklicken. Youtube will darüber hinaus laut Wojcicki zuerst einmal nur Videos zu besonders bekannten Verschwörungstheorien (wie etwa jenen von der erfundenen Mondlandung) um die Links ergänzen. Da das Portal offenbar aus Angst vor Kritik an einer vermuteten Zensur nicht die Algorithmen selbst anpassen will, dürften nicht zuletzt zu aktuellen Ereignissen weiterhin Videos mit Verschwörungstheorien verbreitet werden.

Die Chefin der Wikimedia Foundation, die hinter der freien Online-Enzyklopädie Wikipedia steht, freute sich auf Twitter zwar über die Anerkennung. Einmal mehr werde mit dem Schritt von Youtube aber die freiwillige und unbezahlte Arbeit der Autoren monetarisiert, ohne dass es im Gegenzug etwas für die Plattform gebe, die immer auf Unterstützung angewiesen sei. Außerdem dürfte es nun die Sorge geben, dass Artikel zu Verschwörungstheorien stärker ins Visier der dafür Verantwortlichen geraten. Dann müssten sie besser beobachtet und vor manipulationen geschützt werden, wofür Ressourcen von anderer wichtiger Arbeit in der Enzyklopädie abgezogen werden müsste. (mho)

Anzeige
Anzeige