Menü

Facebook veröffentlicht Algorithmen, die Terrorinhalte erkennen

Facebook will erstmals zwei seiner Algorithmen als Open Source veröffentlichen. Sie ermöglichen die Erkennung von Terrorbildern und Kinderpornos im Netz.

Lesezeit: 1 Min.
In Pocket speichern
vorlesen Druckansicht Kommentare lesen 16 Beiträge

(Bild: dpa, Lino Mirgeler)

Von

Facebook veröffentlicht zwei seiner Algorithmen, die identische und fast identische Fotos und Videos identifizieren können. Eingesetzt wird die Technik im Kampf gegen Kindesmissbrauch, Terror-Propaganda und Gewaltinhalte auf Facebooks Plattformen. Es ist das erste Mal, dass das Unternehmen seine Technik öffentlich zugänglich macht und mit anderen teilt. Facebook hofft, dass es kleinere Entwickler oder etwa gemeinnützige Organisationen künftig leichter haben werden, schädigende Inhalte aufzuspüren und schneller zu entfernen.

Die beiden Algorithmen PDQ und TMK+PDQF nutzt Facebook, um bereits identifizierte Inhalte wiederzufinden und damit eine Verbreitung im sozialen Netzwerk einzudämmen. Auch Unternehmen, die eigene Erkennungssysteme verwenden, profitieren von den Facebook-Algorithmen: "Die Technik bildet dann eine zusätzliche Schutzschicht, was die Systeme viel mächtiger macht", erklären Sicherheitschefin Antigone Davis und der "VP of Integrity" Guy Rosen im Facebook-Blog. Die Algorithmen seien für den "Einsatz in großem Maßstab" entwickelt worden.

Die Entwickler ließen sich von bereits vorhandenen Modellen inspirieren, etwa von PhotoDNA von Microsoft. PDQ lehnt sich zudem an pHash an, wenngleich es von Grund auf selbst entwickelt wurde. TMK+PDQF soll Videos erkennen. Beide Algorithmen werden als Open Source auf GitHub veröffentlicht, kündigte Facebook an.

Die Algorithmen erzeugen aus Dateien Hashwerte, die als digitale Fingerabdrücke fungieren und die Dateien eindeutig identifizierbar machen. Dadurch können zwei Dateien miteinander verglichen werden, ohne das Original zu benötigen. Unternehmen können die Hashes auch untereinander tauschen, möglich ist das über das "Global Internet Forum to Counter Terrorism" (GIFCT). Dadurch wird es einfacher, etwa Videos von Terroranschlägen von mehreren Plattformen gleichzeitig zu tilgen. In der Vergangenheit gerieten Facebook und andere Netzwerke in die Kritik, weil sie schädigende Inhalte nicht schnell genug entfernten. Bei dem Attentat in Christchurch etwa konnte der Täter seine Morde live via Facebook streamen, weil die Künstliche Intelligenz auf das Video nicht reagiert hatte.

Auch im Kampf gegen Kinderpornos im Netz sollen die Algorithmen helfen: "Innerhalb nur eines Jahres haben wir einen Anstieg von 541 Prozent beim Upload von Videos gesehen, die sexuellen Kindesmissbrauch zeigen", erklärt John Clark, Chef des "National Center for Missing and Exploited Children" (NCMEC). Clark ist zuversichtlich, dass Facebooks Beitrag zur Open-Source-Technik "zur Identifizierung und Rettung weiterer Opfer von sexuellem Kindesmissbrauch" führen werde. Facebook hatte den jährlichen "Child Safety Hackathon" zum Anlass genommen, die Neuigkeiten zu veröffentlichen. (dbe)