Chatkontrolle: EU-Kommission vertraut bei Trefferquote auf Meta und Hollywood

Technische Lösungen könnten sexuelle Missbrauchsdarstellungen mit einer Präzisionsrate von 99,9 Prozent erkennen, behauptet die EU-Kommission ohne echte Belege.

Lesezeit: 4 Min.
In Pocket speichern
vorlesen Druckansicht Kommentare lesen 67 Beiträge

EU-Kommissarin Ylva Johansson hat die umstrittene Verordnung angestoßen.

(Bild: EU-Kommission/Christophe Licoppe)

Von
  • Stefan Krempl
Inhaltsverzeichnis

Entscheidende Angaben der EU-Kommission zu ihrer umkämpften Initiative zur Chatkontrolle stehen auf wackeligen Beinen. Die Kommission setzt auf die hohe Trefferquote automatisierter Systeme zur Erkennung von sexueller Gewalt gegen Kinder, vertraut dabei aber auf Angaben der Hersteller. Brüssel fordert eine Pflicht für Diensteanbieter, die private Kommunikation ihrer Nutzer nach auffälligen Mustern mit technischen Hilfsmitteln und möglicherweise über das Aushebeln von Verschlüsselung zu durchsuchen.

Künstliche Intelligenz sei in der Lage, selbst bisher unbekannte Darstellungen sexuellen Kindesmissbrauchs mit über 90 Prozent Genauigkeit und 99 Prozent Präzision zu erkennen. Darauf verwies die Kommission zunächst in der Folgenabschätzung für ihren Verordnungsentwurf zur Chatkontrolle. Innenkommissarin Ylva Johansson, die bei dem Dossier die Federführung innehat, untermauerte diese Zahlen noch einmal in einem Blogbeitrag vom 7. August, mit dem sie das Vorhaben gegen zunehmende Kritik zu verteidigen suchte.

Auf eine Informationsfreiheitsanfrage des früheren EU-Abgeordneten Felix Reda räumte die Kommission nun mit Verspätung ein, dass sie die Zahlen nur mit Verweisen auf zwei öffentliche Quellen belegen könne. Dabei handelt es sich zum einen um eine Mitteilung der Facebook-Mutter Meta über technologische Fortschritte im Kampf gegen Kindesmissbrauch von 2018.

Die zweite Quelle ist eine Webseite der gemeinnützigen US-Organisation Thorn. Diese vom Hollywood-Star Ashton Kutscher mitgegründete Einrichtung beschreibt dort recht allgemein und ohne unabhängige Belege die Erkennungssoftware ihres kommerziellen Ablegers Safer. Jüngste Tests der neuesten Version hätten ergeben, dass es sich bei 99 Prozent der als Kindesmissbrauch eingestuften Dateien tatsächlich um Child Sexual Abuse Material (CSAM) handele.

Die Kommission bedauert zugleich mitteilen zu müssen, dass sie "über keine weiteren Dokumente verfügt", die der in dem Antrag auf Akteneinsicht gegebenen Beschreibung entsprächen und die Zahlen bestätigten. Reda, der mittlerweile bei der Bürgerrechtsorganisation Gesellschaft für Freiheitsrechte (GFF) tätig ist, moniert auf Twitter: "Es gibt keinen Hinweis darauf, dass die Kommission diese Behauptungen der Industrie unabhängig überprüft hat."

"Es ist auf technischer Ebene einfach nicht sinnvoll, wenn ein Unternehmen sagt, dass es einen Test durchgeführt hat und eine bestimmte Genauigkeit angibt, ohne dass die genauen Testdaten bekannt sind", erläuterte Reda seine Kritik gegenüber dem Portal "Euractiv". Im offenen Internet könnte es sein, dass die Zahl der fälschlicherweise ausgemachten Inhalte wesentlich größer ist, weil der Anteil der Missbrauchsdarstellungen bei allen Messenger-Diensten wahrscheinlich sehr gering sei.

Die Zahl der falsch-positiven Hinweise ist entscheidend, weil harmlose Nachrichten, Chats und Fotos von unschuldigen Personen mit expliziten Inhalten auf den Bildschirmen der Ermittler landen und die Betroffenen so in Verdacht geraten könnten. An anderer Stelle erklärte die Kommission bereits, sie rechne bei der maschinellen Suche nach "Anbahnungsversuchen gegenüber Minderjährigen" per Cyber-Grooming in Privatnachrichten damit, dass jede zehnte automatisierte Meldung eines Chatverlaufs tatsächlich völlig legale Kommunikation offenlegen würde. Bei den bisher rund 30 Millionen maschinell eingeleiteten Anzeigen in den USA pro Jahr auf diesem Feld kämen so knapp drei Millionen Nachrichtenaustausche zu Unrecht ins Visier der Behörden.

Kutcher warb schon 2020 auf EU-Ebene vehement dafür, dass US-Konzerne wie Facebook, Microsoft oder Google weiter freiwillig private Kommunikation nach CSAM durchsuchen können. Das EU-Parlament führte für das umstrittene Instrument im Juli 2021 per Eilverordnung Ausnahmen von der Anwendung einiger Bestimmungen der E-Privacy-Richtlinie ein. Der EU-Abgeordnete Patrick Breyer (Piratenpartei) reichte jüngst eine Unterlassungsklage gegen Meta wegen dieser verdachtslosen Nachrichtendurchsuchung ein.

Mit dem umstrittenen Verordnungsentwurf sollen nun auch Anbieter durchgängig verschlüsselter Messaging- und anderer Kommunikationsdienste wie WhatsApp, Apple, Signal und Threema über behördliche Anordnungen dazu verpflichtet werden können, Fotos und Videos von Kindesmissbrauch in den Nachrichten ihrer Nutzer ausfindig zu machen.

Auch dafür betreiben Kutcher und Thorn intensives Lobbying. In einem offenen, gemeinsam mit anderen Organisationen verfassten Brief heißt es: "Wir haben im Laufe der Zeit gelernt, dass freiwillige Maßnahmen allein dieses Problem nicht lösen werden. Zusätzlich zu diesen Bemühungen ist die obligatorische Verwendung sicherer Technologien, die von einer unabhängigen Behörde angeordnet wird, eine willkommene Initiative, um dieses Verbrechen in großem Umfang zu bekämpfen."

(mki)