Menü

Hate Speech: Warum Facebook sicht mit rechten Beiträgen so schwer tut

Facebook steht für laxes Vorgehen gegen Posts mit Herabsetzungen bis hin zu Volksverhetzung in der Kritik. Ein Mitarbeiter hat nun aus dem Nähkästchen geplaudert, wie die Bertelsmann-Tochter Arvato die Beschwerden im Auftrag von Facebook bearbeitet.

vorlesen Drucken Kommentare lesen 418 Beiträge
Facebook

(Bild: dpa, Jens Büttner/Archiv)

Facebook legt für deutsche Verhältnisse eigentümliche Maßstäbe an, um Hass-Postings zu bewerten. Während selbst Bilder stillender Mütter ruckzuck als zu freizügig gebannt werden, tut man sich mit Volksverhetzung deutlich schwerer. Ein Autor von Mobilegeeks meldete kürzlich einen besonders krassen Fall an Facebook. Es handelte sich um das Bild eines Backofens, eine Spur von Geldscheinen die dorthin führt und dazu der Kommentar: "Habe mir mal schnell eine Judenfalle gebaut".

Die Standardantwort von Facebook lautete zunächst: Man könne keinen Verstoß gegen die Nutzungsbedingungen feststellen. Der Beitrag verstoße nicht gegen die Gemeinschaftsstandards. Erst später entschloss sich Facebook zur Löschung des Eintrags, nachdem zahlreiche weitere Beschwerden eingegangen waren. Wegen ähnlicher Entscheidungen in anderen Fällen ermittelt die Staatsanwaltschaft München gegen Facebook-Chef Mark Zuckerberg – unter anderem wegen Duldung der Holocaustleugnung.

Im Rahmen der Berichterstattung meldete sich ein ehemaliger Mitarbeiter bei Mobilegeeks und berichtete, nach welchen Kriterien das Unternehmen Arvato, das die Nutzerbeschwerden im Auftrag von Facebook bearbeitet, Beiträge bewertet und gegebenenfalls sperrt. Rund 600 Mitarbeiter sind damit beschäftigt, die Meldungen deutscher Facebook-Nutzer zu bearbeiten. Sie verfahren nach einem Handbuch, das insgesamt 48 Seiten dick ist und zahlreiche weitere Regeln für andere Tatbestände umfasst, etwa für die Darstellung nackter Haut oder Beleidigung.

Besondere Fälle, etwa wenn es um Kindesmissbrauch oder Selbstverletzungen geht, übernimmt dem Bericht zufolge ein darauf spezialisiertes Team in Irland. Ein anderes Sonderteam von 10 bis 15 Mitarbeitern mit dem Namen FNRP (Fake Not Real Person) übernimmt die Prüfung von mutmaßlich falschen Identitäten. Meldungen werden nicht automatisiert abgearbeitet, sondern manuell von Mitarbeitern geprüft. Je nach Themengebiet müssen die Mitarbeiter zwischen knapp 1000 und mehreren tausend Tickets pro Tag abarbeiten.

Dabei gehen die Mitarbeiter nach einer sehr starren Klassifizierung vor, die ihnen kaum Spielraum gibt: Hate Speech liegt nach diesen Richtlinien nur dann vor, wenn Mitglieder einer "geschützten Kategorie" angegriffen werden. Geschützte Kategorien sind Hautfarbe, ethnische Gruppe, nationale Herkunft, Behinderung, Geschlecht, religiöse Ausrichtung und sexuelle Orientierung. Eine Gruppe mit minderen Rechten sind Migranten, hier sieht Facebook offenbar weniger Schutzbedarf als bei anderen Gruppen.

Ein Angriff muss sich den Leitlinien zufolge gegen die Mitglieder einer solchen Gruppe richten, um gegen die Gemeinschaftsstandards zu verstoßen. Ein solcher Angriff kann beispielsweise aus Aufrufen zur Gewalt, Herabsetzungen oder Beschimpfungen bestehen. Allerdings gibt es hier Feinheiten: Am Begriff "Nur für Weiße" ist nach Ansicht von Facebook beispielsweise nichts auszusetzen, da hier vordergründig niemand ausgeschlossen wird. "Nicht für Schwarze" hingegen wäre ein Ausschluss einer Gruppe und damit ein Verstoß gegen Gemeinschaftsstandards.

Dem Bericht zufolge gilt die eiserne Regel, sich nur an Fakten zu halten und die Einträge nicht zu interpretieren. Rechtsextremen, die häufig mit Codes, Schlüsselwörtern und Andeutungen arbeiten und damit Verstöße gegen die Nutzungsbedingungen und Strafvorschriften kaschieren, kommt diese Verfahrensweise entgegen.

(uma)