Decoding Antisemitism: KI soll gegen Antisemitismus im Netz vorgehen

Nicht immer zeigt sich Antisemitismus offen im Internet. Zunehmend werden verklausulierte Formulierungen verwendet. Eine KI soll diese aufdecken.

Lesezeit: 1 Min.
In Pocket speichern
vorlesen Druckansicht Kommentare lesen 87 Beiträge

(Bild: vs148/Shutterstock.com)

Von
  • dpa

Wortspiele und mehrdeutige Begriffe wie Juice (Saft) für Juden oder "Ostküsten-Lobby" gehören nach Expertensicht zu einem wachsenden antisemitischen Code in sozialen Medien und Online-Kommentaren auf den Seiten von Nachrichtenplattformen. Da wird von "Rothschild" und "Soros" als Stellvertreter für eine angebliche globale Finanzmacht gesprochen, von "Wall Street" oder "der Presse". Mit Hilfe von Künstlicher Intelligenz (KI) wollen jetzt Wissenschaftler gegen die Ausbreitung solcher antisemitisch gemeinter Diffamierungen vorgehen und damit helfen, deren Verbreitung im Netz zu bekämpfen.

"Decoding Antisemitism" – so nennt sich das Projekt, das vom Linguisten Matthias J. Becker von der Technischen Universität (TU) Berlin geleitet wird. Beteiligt sind unter anderem auch das Zentrum für Antisemitismusforschung der TU und das Londoner King's College.

"Es zeigt sich, dass Online-Hetze und Hassverbrechen in der analogen Welt meist miteinander in Verbindung stehen", erklärte Becker nach einer Mitteilung der Alfred Landecker Stiftung vom Montag. Die Stiftung fördert das Projekt mit drei Millionen Euro. Damit nicht immer mehr Nutzer radikalisiert würden, sei es wichtig, das Ausmaß von antisemitischem Hass genau zu bestimmen – auch bei zunächst oberflächlich unverdächtigen Begriffen.

Zu dem Forscherteam gehören Experten für Diskursanalyse, Computerlinguistik und Historiker. Bisher habe sich noch keine Untersuchung darauf konzentriert, versteckten und codierten Hass gegen Juden zu identifizieren. Dabei gehe aus Studien hervor, dass antisemitische Diffamierungen mehrheitlich nicht direkt ausgedrückt würden. Auch die Andeutung von Verschwörungsmythen oder die Wiederholung von Stereotypen in Bildern, Karikaturen oder Memes gehörten dazu.

Mit Hilfe von Computern und Künstlicher Intelligenz wollen die Forscher große Mengen an Daten- und Bildmaterial sichten, die menschliche Analysten nicht verarbeiten könnten. Ziel des Projekts sei unter anderem eine Open-Source-Anwendung, um etwa Debatten auf Webseiten zu moderieren. Es gehe dabei ausdrücklich nicht darum, einen Zensuralgorithmus zu erschaffen, teilte die Landecker-Stiftung weiter mit.

(olb)