Menü

Abgetrennte Köpfe und misshandelte Kinder: Was Facebook-Kontrolleure erwartet

Unerwünschte Inhalte auf Facebook werden per Hand aussortiert. Die damit betrauten Angestellten müssen stundenlang grauenerregende Bilder nach zweifelhaften Regeln bewerten. Mit den Folgen bleiben sie allein, berichtet das SZ-Magazin.

Von
vorlesen Drucken Kommentare lesen 276 Beiträge
Facebook

(Bild: Sarah Marschall, CC BY 2.0 )

Die für Facebook mit der Prüfung rechtswidriger Inhalte beauftragten Angestellten der Bertelsmann-Tochter Arvato werden mit den dabei gemachten traumatischen Erfahrungen allein gelassen. Zu dem Schluss kommt das SZ-Magazin nach einer ausführlichen Recherche und Gesprächen mit ehemaligen und aktuellen Mitarbeitern der digitalen Müllabfuhr für Facebook.

Die anonymen Gesprächspartner müssen entscheiden, welche von Nutzern gemeldeten Inhalte gegen die Regeln des Netzwerks verstoßen – das Ergebnis wird immer wieder kritisiert, jüngst erst von Mobilegeeks, die Ende November über die internen Abläufe bei Facebook bei Meldung von Bildern oder Profilen berichteten. Was Facebooks Inhalts-Kontrolleure zu sehen bekommen, sei grauenerregend – mit den psychischen Folgen blieben sie aber allein .

Vielsprachige Mitarbeiter und unklare Regeln

Nach heftiger Kritik an Facebooks Löschpraxis im Zuge der heftigen Debatten über ankommende Flüchtlinge Ende 2016 hatte Facebook Anfang 2016 angekündigt, Hasskommentare fortan in Deutschland prüfen zu lassen. Das wurde an den Dienstleister Arvato ausgelagert, der dafür in Berlin Angestellte gesucht hatte, wie das Magazin nun ausführt. Inzwischen würden dort aber nicht nur deutschsprachige Inhalte, sondern solche in verschiedenen Sprachen von jeweils dafür zusammengestellten Teams geprüft. Die Angestellten erhalten demnach wenig mehr als den Mindestlohn und keine etwa den Prüfern der Bundesprüfstelle für jugendgefährdende Medien vergleichbare Betreuung beziehungsweise Erholungsphasen. In der Einführung bekämen sie nur relativ harmlose Inhalte zu sehen, ihre Arbeit und den Arbeitgeber müssten sie aber geheim halten.

Während ihrer Arbeit als "Content-Moderatoren" bekommen sie demnach aber im Minutentakt Inhalte zu sehen, die teilweise zu grausam seien, um sie abzudrucken, schreibt das Magazin. Aber selbst die beschriebenen Inhalte haben es in sich. Zu dem schlimmsten gehöre Kinderpornografie. Bewertet werden müssten auch Videos von Enthauptungen, Misshandlungen und brutale Gewalt gegen Kinder, Erwachsene und Tiere. Einer berichtet von einem Sex-Fetischvideo, in dem eine Frau einem Katzenbaby mit hochhackigen Schuhen den Kopf zertritt. Das habe gelöscht werden müssen, aber andere grausame Inhalte hätten nicht gegen die geheimen und oft schwer nachzuvollziehenden Regeln verstoßen. So habe früher gegolten, das Bild eines abgetrennten Kopfes sei in Ordnung, "solange der Schnitt gerade verlief."

Hoffen auf die KI

Unklar sei, wie Facebook bei Straftaten abseits von Kinderpornografie mit den Inhalten umgehe, außer sie auf der Plattform zu löschen. So gebe es eine Reihe von Straftaten, die angezeigt werden müssten, sobald jemand davon Kenntnis erlange. Ob das aber auch geschieht, gebe Facebook nicht bekannt. Die mit der Inhaltsbewertung beauftragten Mitarbeiter jedenfalls würden darauf vertröstet, dass irgendwann Computer ihre Aufgabe übernehmen sollen. Für die Entfernung grauenerregender Inhalte soll dann eine Künstliche Intelligenz sorgen, aber eben beispielsweise auch für die Unterscheidung zwischen legitimer Berichterstattung und brutaler Gewaltdarstellung. Die Arvato-Angestellten wollen das jedenfalls nicht mehr erleben: Angesichts der fehlenden Hilfe plane keiner, bei dem Unternehmen zu bleiben.

Lesen Sie dazu auch bei heise online:

(mho)

Anzeige
Anzeige