Menü

Upload-Filter: Facebook und Instagram löschen Rachepornos automatisch

Mithilfe von Maschinenlernen kann das soziale Netzwerk nach eigenen Angaben mittlerweile auch "Revenge Porn" proaktiv entdecken und blockieren.

Von
vorlesen Drucken Kommentare lesen 46 Beiträge
Facebook

(Bild: dpa, Oliver Berg)

Nach unerwünschten beziehungsweise rechtswidrigen Inhalten wie Nacktbildern, Terrorpropaganda oder Darstellungen sexuellen Kindesmissbrauchs entfernt Facebook jetzt auch Rachepornos mithilfe des eigenen Upload-Filters in einem weitgehend automatisierten Verfahren. Der Betreiber der Plattform ist laut Sicherheitschefin Antigone Davis inzwischen durch den Einsatz von "Maschinenlernen und Künstlicher Intelligenz" (KI) soweit, "proaktiv" einschlägige Fotos oder Videos im eigenen Netzwerk sowie auf der Tochterseite Instagram ausfindig zu machen.

Davis spricht statt von "sogenanntem Revenge Porn" lieber von "fast nackten" Aufnahmen, die ohne Einwilligung und Erlaubnis der Betroffenen geteilt werden. Mit dem aufgerüsteten Filteralgorithmus soll es nun möglich sein, "diesen Inhalt zu finden, bevor ihn jemand meldet". Dies sei wichtig, weil die Opfer oft Vergeltung fürchteten und sich daher nur zögerlich an den Plattformbetreiber wendeten. Andere seien längere Zeit gar nicht im Bilde, dass entblößende Bilder von ihnen über Facebook oder Instagram verbreitet würden.

Technische Details, wie der Filter funktioniert, verraten die Kalifornier nach wie vor nicht. Bekannt ist nur, dass bei sexuellen Missbrauchsbildern das von Microsoft entwickelte Programm PhotoDNA für einen Abgleich mit einer zentralen Datenbank zum Einsatz kommt. Facebook hat das Verfahren aber nach eigener Darstellung schon im Kampf gegen "Kinderpornografie" mithilfe von KI erweitert.

Für Präventionsmaßnahmen gegen Rachepornos führte der Betreiber im Mai ein Pilotprojekt ein. Darüber können Mitglieder in Australien, Großbritannien, Kanada und den USA intime Fotos von sich selbst schicken, wenn sie befürchten, dass etwa ein Ex-Partner diese gegen ihren Willen auf der Plattform veröffentlicht. Um solchen Bloßstellungen zuvorzukommen, erzeugt Facebook einen digitalen Fingerabdruck in Form eines einmaligen Hashwerts aus den eingesandten Bilddateien. Diese Kennung soll es dem System erleichtern, die zugehörigen Kopien zu sperren, wenn sie später auf dem Portal oder Instagram hochgeladen oder per Messenger verschickt werden sollten.

Dank der so erhaltenen Daten hat Facebook den Algorithmus inzwischen offenbar daraufhin trainiert, von sich aus Rachepornos erkennen zu können. Um bei der Präventionsmaßnahme Fehler zu vermeiden, soll jeweils ein "speziell geschultes Mitglied unseres Community-Betriebsteams" die Inhalte überprüfen, die im Filter hängen bleiben. Wenn ein solches Foto oder ein Video gegen die Gemeinschaftsstandards verstößt, soll es entfernt werden.

"In den meisten Fällen werden wir auch ein Konto abstellen, über das intime Inhalte ohne Erlaubnis geteilt werden", kündigte Davis an. Es gebe aber auch ein Beschwerdeverfahren, "falls jemand glaubt, dass wir einen Fehler gemacht haben". Das kommt in anderen Bereichen häufig vor, viele Nutzer beklagen Zensur. 2016 stellte Facebook erst nach massiven Protesten einen Zeitungsartikel mit einer 1972 entstandenen Aufnahme aus dem Vietnam-Krieg wieder online, auf der ein unbekleidetes Mädchen nach einem Napalm-Angriff schreiend und rennend zu sehen ist.

Zusätzlich zu der neuen Identifikationstechnik soll das zusammen mit Opferorganisationen betriebene Pilotprogramm als "Notfalloption" weiterbestehen und "über die kommenden Monate" ausgebaut werden. Facebook hat zudem in seinem Sicherheitszentrum das zusammen mit Experten entwickelte Unterportal Not Without My Consent gestartet. Betroffene sollen dort rasch Hilfsorganisationen und weitere Ressourcen finden, um die Verbreitung von Rachepornos zu stoppen. Ein erweiterter Instrumentenkoffer für die Unterstützung von Opfern ist laut Facebook in Arbeit.

(tiw)