Menü

Nach Christchurch: Facebook & Co. wollen Extremismus in Echtzeit eindämmen

Im "EU-Internet-Forum" haben sich große Plattformbetreiber mit der EU-Kommission auf einen raschen Antwortmechanismus zu Terrorinhalten im Netz geeinigt.

Lesezeit: 1 Min.
In Pocket speichern
vorlesen Druckansicht Kommentare lesen 20 Beiträge

(Bild: sitthiphong/Shutterstock.com)

Von

Nach dem Live-Stream eines Anschlags auf Muslime in der neuseeländischen Stadt Christchurch durch einen Einzeltäter haben sich mehrere große Internetkonzerne im Rahmen des "EU-Internet-Forums" am Montag in Luxemburg mit der EU-Kommission auf ein freiwilliges "Krisenprotokoll" verständigt. Facebook, Twitter, Google, Microsoft, Dropbox, JustPaste.it und Snap wollen demnach auf einen raschen Reaktionsmechanismus setzen, um die "virale Verbreitung terroristischer und gewalthaltiger extremistischer Inhalte" im Internet zu verhindern.

Das Krisenprotokoll soll den "Christchurch Call" mit Leben füllen, den mehrere Regierungen und Online-Plattformen im Mai als Reaktion auf das Attentat unterzeichnet hatten. Dabei handelt es sich um eine weitgehend unverbindliche Erklärung zum Kampf gegen Extremismus im Netz. Kommissionspräsident Jean-Claude Juncker hatte sich schon damals dafür ausgesprochen, die Vereinbarung mit einem Aktionsplan zu untermauern, den die Beteiligten des Internetforums jetzt ausgearbeitet haben. Beim Ansatz der Selbstregulierung bleibt es aber auch dabei.

Laut dem verabredeten Verfahren sollen Behörden der Mitgliedstaaten zusammen mit dem Polizeiamt Europol, dem Global Internet Forum to Counter Terrorism (GIFCT) und den beteiligten Diensteanbietern vorab festgelegte Schritte befolgen, um die erfassten Inhalte rasch einzudämmen. Beide Seiten wollen dazu relevante Informationen etwa über URLs, audio-visuelle Mediendateien sowie zugehörige Metadaten auf freiwilliger Basis "sicher und in Echtzeit" austauschen. Das Protokoll soll dabei bestehende rechtliche Vorgaben oder bestehende nationale Mechanismen zum Krisenmanagement nicht ersetzen, sondern nur in "außergewöhnlichen Situationen" greifen, in der solche Verfahren nicht ausreichen und eine grenzüberschreitende Antwort nötig ist.

Strenge Datenschutzregeln und die Grundrechte würden bei dem abgesprochenen Vorgehen eingehalten, versicherte die Kommission. Es gehe darum, die innerhalb von vier Jahren im Rahmen des Forums etablierte Kooperation weiter auszubauen und sich stärker zu koordinieren. Die Mitglieder des Gremiums hatten sich zuvor ursprünglich etwa bereits verpflichtet, etwa Hasskommentare oder Terrorpropaganda innerhalb von 24 Stunden zu löschen, nachdem sie davon Kenntnis erhalten haben. Seit 2017 ist von zwei Stunden die Rede. Künftig sollen Betreiber einschlägige Inhalte laut neuer geplanter EU-Vorgaben spätestens binnen einer Stunde löschen, was auf Upload-Filter hinauslaufen dürfte.

Im Rahmen des Forums diskutierten die Teilnehmer laut der Kommission auch erstmals einen Vorschlag, die etablierten Verfahren aus dem Bereich Extremismus auf den Kampf gegen sexuelle Missbrauchsdarstellungen auszudehnen. Eine spruchreife Vereinbarung dazu ist aber in der gestrigen Runde noch nicht herausgekommen. (axk)