Facebook löscht 1,7 Milliarden Fake-Accounts und erkennt Hassposts automatisch

Facebook setzt auf die automatische Erkennung von Fake-Accounts und problematischer Inhalte – mit zunehmendem Erfolg.

Lesezeit: 2 Min.
In Pocket speichern
vorlesen Druckansicht Kommentare lesen 90 Beiträge
Facebook entfernt 1,7 Milliarden Fake-Accounts, 80 Prozent der Hasspost automatisch gelöscht

(Bild: Lloyd Carr/Shutterstock.com)

Von
  • Oliver Bünte

Facebook hat zwischen Juli und September 2019 rund 1,7 Milliarden Fake-Accounts von seiner Plattform entfernt. Im laufenden Jahr wurden bisher insgesamt 5,4 Milliarden Fake-Accounts gelöscht. Demgegenüber wurden 2018 im gesamten Jahr 3,3 Milliarden "falsche" Accounts entfernt. Das teilte Facebook am Mittwoch mit. Nach Angaben von Facebook sollen aber längst nicht alle Fake-Accounts erwischt worden sein, sondern noch Millionen weiterer falscher Accounts im sozialen Netzwerk schlummern. Bis zu fünf Prozent der monatlichen Nutzerbasis von knapp 2,5 Milliarden sollen Fake-Accounts sein, heißt es von Facebook.

Im ersten Quartal lagen die Zahlen mit rund 2,2 Milliarden gelöschter Accounts noch 500 Millionen höher. Im zweiten Quartal war die Anzahl zunächst auf 1,5 Milliarden gesunken, um nun wieder auf 1,7 Milliarden anzusteigen. Facebook-Chef Mark Zuckerberg sagte nach Angaben von CNN Business in einer Telefonkonferenz mit Journalisten, dass die hohe Anzahl kein Anzeichen dafür sei, dass Facebook besonders betroffen ist, sondern dass das Unternehmen besonders hart daran arbeite, das Problem anzugehen. Zuckerberg forderte andere Plattformen auf, ihre Zahlen ebenfalls zu veröffentlichen.

Von Juli bis September habe Facebook rund sieben Millionen Posts mit Hassrede entfernt. Im Vergleich zum Zeitraum von April bis September entspricht das einem Anstieg von 60 Prozent. Facebook führt diese Steigerung auf eine verbesserte Leistung der Erkennungs-Algorithmen zurück. Das Unternehmen hatte nach massiver Kritik von Bürger- und Menschenrechtlern und Politik gegen Hassrede in Sozialen Netzwerken damit begonnen, die Erkennungs-Algorithmen auszubauen. So konnten nun rund 80 Prozent der Hassrede erkannt werden, bevor ein Benutzer sie überhaupt zu Gesicht bekommen konnte. Im ersten Quartal fiel die Quote mit 68 Prozent noch niedriger aus. Zu der höheren Quote soll auch beigetragen haben, dass Facebook den Algorithmen erlaubt hat, Hass- und Hetzpostings automatisch zu löschen.

Neu in Facebooks halbjährlich erscheinendem Transparenzbericht, in dem erstmals auch Zahlen zur Tochter Instagram enthalten sind, hat Facebook Angaben zu Posts im Zusammenhang mit Selbstmord und Selbstverletzung aufgenommen. Im dritten Quartal wurden bei Facebook 2,5 Millionen Inhalte entfernt, davon 97,3 Prozent proaktiv, bei Instagram seien es 845.000 gewesen. Davon seien 79,1 Prozent bereits vor der Veröffentlichung entfernt worden.

Ebenfalls neu ist die Aufnahme von Daten zu gelöschter Propaganda, die von einzelnen Terroristen und terroristischen Gruppen verbreitet werden. Proaktiv würde terroristische Propaganda zu 98,5 Prozent auf Facebook und zu 92,2 Prozent auf Instagram erkannt, schreibt Facebook. Die Bemühungen, entsprechende Inhalte automatisch zu erkennen, sollen in Zukunft weiter verstärkt werden.

Im Bereich der sexuellen Ausbeutung von Kindern und Nacktdarstellungen hat Facebook im dritten Quartal 11,6 Millionen Inhalte entfernt, im ersten Quartal waren es 5,8 Millionen. Bei Instagram sind im dritten Quartal 754.000 solcher Inhalte gelöscht worden, im zweiten Quartal waren es 512.000. Auch hier konnten aufgrund der verbesserten Algorithmen hohe Anteile bereits proaktiv erkannt werden.

Auch gegen Posts im Zusammenhang mit dem Verkauf von Drogen und Waffen ist Facebook vorgegangen. Rund 4,4 Millionen Inhalte wurden bei Facebook und 1,5 Millionen bei Instagram im Zusammenhang mit Drogenverkäufen im dritten Quartal entfernt. Im Zusammenhang mit Waffenverkäufen waren es 2,3 Millionen bei Facebook und 58.600 bei Instagram. (olb)