Menü

Facebook erlaubte gezielte Werbung für Neonazi-Verschwörungstheoretiker

Das Werbesystem von Facebook steht erneut in der Kritik: Algorithmen erzeugten Kriterien für Werbetreibende mit Neonazi-Inhalten – ohne Beanstandung.

Von
vorlesen Drucken Kommentare lesen 150 Beiträge
Facebook erlaubte gezielte Werbung mit Neonazi-Verschwörungstheorie

(Bild: pixabay.com)

Das soziale Netzwerk Facebook hat Anbietern von Werbekampagnen gestattet, ihre Zielgruppen anhand von Kriterien mit rassistischen und faschistischen Inhalten auszuwählen. Nach Recherchen von The Intercept war es möglich, eine bezahlte Promotion zu platzieren, die sich gezielt an Interessenten von "white genocide conspiracy theory" wandte – also an Anhänger einer vor allem unter Neonazis im anglo-amerikanischen Raum verbreiteten Verschwörungstheorie, wonach ein "Völkermord" an der "weißen Rasse" im Gange sei.

Facebook präsentierte in seinem Werbesystem die entsprechende Interessengruppe als Kriterium für gezielte Werbung und informierte, dass sich 168.000 Benutzer an diesem Thema interessiert gezeigt oder entsprechende Seiten geliked hätten. Wie The Intercept schreibt, sei die lediglich zu Recherchezwecken erstellte Promotion mit dem Titel "White Supremacy - Test" sogar zunächst vom Ads-Team des Unternehmens freigegeben worden. Nach einem Anruf bei Facebook wurden das Werbekriterium und die Kampagne gelöscht. Das Unternehmen bat um Entschuldigung und beteuerte, dass diese Kategorie nie hätte existieren dürfen.

Bereits im September 2017 hatte ein ähnlicher Vorfall Aufsehen erregt: Damals konnte das Magazin ProPublica Werbung gezielt an Antisemiten ausliefern. Facebook versprach daraufhin, gezielte Werbekriterien erst wieder zu aktivieren, wenn ein Missbrauch mit solchen extremistischen Inhalten zuverlässig unterbunden sei. Dies ist offenbar nicht gelungen.

Das Zustandekommen eines solchen Kriteriums ist nach wie vor intransparent. Facebook ermittelt es anscheinend anhand von Aktivitäten in dem sozialen Netzwerk, aber auch außerhalb, beispielsweise anhand der Gerätenutzung, des Kaufverhaltens oder von Reisetätigkeiten. Dabei setzt Facebook auch auf Algorithmen mit künstlicher Intelligenz, die das Nutzerverhalten vorhersagen sollen. Außerdem ist unklar, inwiefern die Auswertung des Online-Verhaltens eines Nutzers zuverlässig etwas über die Billigung der geteilten oder aufgesuchten Inhalte aussagen kann.

Gegenüber The Intercept gab Facebook an, dieses Werbekriterium sei durch eine Kombination aus automatisierten Abläufen und menschlichen Eingriffen zustande gekommen. Neu hinzugekommene Nutzerinteressen für Werbekunden würden jedoch immer durch einen Mitarbeiter bestätigt. Sie beruhten nicht (wie in dem ProPublica-Fall) auf Selbstangaben der Benutzer, sondern auf algorithmisch erzeugten und überprüften Stichworten. Außerdem bestätigte das Unternehmen, dass das fragliche Kriterium bereits von anderen Werbekunden genutzt wurde.

Besondere Brisanz erhält die Enthüllung des Magazins durch die zeitliche Nähe zu einem mutmaßlich antisemitisch motivierten Amoklauf an einer Synagoge in den USA Ende Oktober. Der Täter hatte zuvor bei der – vor allem von Neonazis und Rechtsradikalen frequentierten – Twitter-Alternative "Gab" antisemitische Parolen veröffentlicht. Daraufhin stellte der Webhoster GoDaddy der Plattform ein Ultimatum und nahm sie schließlich vom Netz. (tiw)

Anzeige