Edit Policy: Uploadfilter mit KI – EU-Pläne bergen große Risiken

Nicht alle Punkte der EU-Digitalstrategie erfahren die gleiche Aufmerksamkeit. Zum Auftakt ihrer Kolumne warnt Julia Reda vor dem Digital Services Act.

Lesezeit: 4 Min.
In Pocket speichern
vorlesen Druckansicht Kommentare lesen 106 Beiträge

(Bild: ImageFlow/Shutterstock.com/Diana Levine)

Von
Inhaltsverzeichnis

Die neue EU-Digitalstrategie gibt einen Vorgeschmack auf die netzpolitischen Pläne der EU-Kommission unter Präsidentin Ursula von der Leyen. Im Fokus der öffentlichen Aufmerksamkeit steht das Weißbuch zur künstlichen Intelligenz, das aber nur einen Teil des neuen Strategiepakets bildet. Ein weiteres Papier mit dem Titel "Europas digitale Zukunft gestalten" fliegt dagegen bislang unter dem Radar. Die darin angekündigte Gesetzesinitiative, der Digital Services Act, könnte jedoch zum Experimentierfeld für den Einsatz künstlicher Intelligenz werden – mit fatalen Folgen für die digitalen Grundrechte.

Edit Policy

(Bild: 

Diana Levine, CC-BY

)

In der Kolumne Edit Policy kommentiert die ehemalige Europaabgeordnete Julia Reda Entwicklungen in der europäischen und globalen Digitalpolitik. Dabei möchte sie aufzeigen, dass europäische und globale netzpolitische Entwicklungen veränderbar sind, und zum politischen Engagement anregen.

Ende des Jahres will die Europäische Kommission ihren Vorschlag für den Digital Services Act präsentieren, der die Pflichten von Plattformen in Bezug auf illegale Inhalte jeglicher Art neu regeln soll. Dabei könnten Uploadfilter vorgeschrieben werden, die mittels künstlicher Intelligenz versuchen, gänzlich neue und unbekannte Inhalte zu erkennen und zu sperren. Die Fehlerraten solcher KI-Filter sind noch viel höher als die Filter-Systeme, die mit der Umsetzung der Urheberrechtsreform verpflichtend werden könnten und auf dem Abgleich mit Fingerprint-Datenbanken bekannter Inhalte basieren.

Die Digitalstrategie bleibt über den Inhalt des geplanten Digital Services Act noch vage. Sie betont lediglich, dass das Internet kein rechtsfreier Raum sein dürfe und dass die Verantwortung von Plattformen für die Verbreitung illegaler Inhalte deshalb verschärft werden müsse. Bislang müssen Plattformen illegale Inhalte nur dann löschen, wenn sie von ihnen Kenntnis erlangen, sie müssen Uploads aber nicht aktiv durchsuchen.

Einen Vorgeschmack, was für eine Art von Plattform-Verantwortung der Kommission vorschwebt, bieten die laufenden Verhandlungen über die Verordnung zur Bekämpfung terroristischer Inhalte im Netz. Bereits am 18. März steht die nächste Verhandlungsrunde zwischen Parlament, Kommission und Rat an, bei der es zu einer Einigung kommen könnte. Nach den Vorstellungen der Kommission sollen Plattformen nicht nur bekannte terroristische Inhalte automatisch sperren, sondern auch "verlässliche technische Werkzeuge zur Erkennung neuer terroristischer Inhalte" einsetzen und entwickeln. Wie unzuverlässig solche KI-basierten Systeme in der Praxis funktionieren, hat kürzlich die Organisation Syrian Archive beklagt, die Menschenrechtsverletzungen im Syrienkrieg dokumentiert. YouTubes Terrorfilter habe bereits jedes zehnte ihrer Videos gesperrt, YouTube trage damit zu einer Auslöschung der Geschichte bei.

Bislang lehnt das Europaparlament in den verpflichtenden Einsatz von Uploadfiltern zur Sperrung terroristischer Inhalte kategorisch ab, sicherlich auch infolge der breiten öffentlichen Kritik an der Urheberrechtsreform, die es im letzten Jahr durchgewunken hat. Kommission und Rat machen aber Druck, den Widerstand des Parlaments zu überwinden. Wenn sich Kommission und Rat durchsetzen, droht die Terrorismusverordnung zur Blaupause für den Digital Services Act zu werden, der dann nicht mehr nur terroristische Inhalte, sondern illegale Uploads jeglicher Art betreffen würde. Die massiven Bedenken gegen Uploadfilter, insbesondere KI-basierte, können die Pläne zur Regulierung künstlicher Intelligenz nicht ausräumen

Alle Uploadfilter haben mit dem Problem zu kämpfen, dass sie nach relativ seltenen Inhalten suchen, denn die weit überwiegende Zahl der hochgeladenen Inhalte ist legal. Selbst ein nahezu perfekter Uploadfilter, der nur in einem Prozent der Fälle falsch liegt, sperrt mehr legale als illegale Inhalte, sofern weniger als ein Prozent der hochgeladenen Inhalte tatsächlich illegal ist. Dieses Problem wird von der Politik systematisch unterschätzt, in der Statistik ist es als Prävalenzfehler bekannt. Dieses Problem ist bei KI-basierten Filtern ungleich größer: Sie produzieren höhere Fehlerraten, da sie nicht nur den Upload bekannter, sondern auch unbekannter illegaler Inhalte verhindern sollen.

In ihrer Digitalstrategie offenbart die EU-Kommission einen kindlichen Glauben an die technischen Möglichkeiten der künstlichen Intelligenz. Dabei ist mehr als zweifelhaft, ob es jemals möglich sein wird, neue terroristische oder andere illegale Inhalte zuverlässig automatisch zu erkennen. Was heute unter künstlicher Intelligenz zu verstehen ist, sind insbesondere verschiedene Verfahren des maschinellen Lernens, die Muster in großen Datensätzen erkennen und ihre Entscheidungen mit der Zeit anhand vergangener Fehler verfeinern können. Ihre Stärke liegt in der schnellen Auswertung riesiger Datenmengen und der Identifizierung von Gemeinsamkeiten. Wozu maschinelles Lernen jedoch nicht in der Lage ist, ist das Verständnis, warum bestimmte Inhalte einander ähneln, oder was die Intention und der Kontext eines Uploads ist.

Tatsächlich sehen Videos von Menschenrechtsgruppen denen terroristischer Organisationen mitunter sehr ähnlich. Worauf es ankommt, ist im Zweifelsfall die Kommentierung des Inhalts, sprachliche Nuancen oder auch nur die Absicht, mit der die Inhalte geteilt werden. Nach EU-Recht kommt es nämlich auf die Intention an, ob eine bestimmte Tat als Terrorismus strafbar ist. Solche teils subjektiven Kriterien sind künstlicher Intelligenz unzugänglich, der Algorithmus kann weder einschätzen, was die Absicht hinter einem Upload ist, noch kann er seine Ergebnisse zuverlässig erklären.