Edit Policy: Der Digital Services Act steht für einen Sinneswandel in Brüssel

Mit netzpolitischen Initiativen hat die EU-Kommission in jüngster Zeit viele vor den Kopf gestoßen. Beim Digital Services Act sieht es nun anders aus.

Lesezeit: 6 Min.
In Pocket speichern
vorlesen Druckansicht Kommentare lesen 19 Beiträge

(Bild: Primakov/Shutterstock.com/heise online)

Von
  • Julia Reda
Inhaltsverzeichnis

Nach der katastrophalen netzpolitischen Bilanz der vorigen EU-Kommission befürchteten viele, dass der geplante Digital Services Act einfach die Fehler der Vergangenheit fortsetzen würde. Die Uploadfilter der Urheberrechtsreform und die unrealistisch kurzen Sperrfristen der Terrorverordnung drohten zur Blaupause für den Umgang mit allen illegalen Inhalten im Netz zu werden. Stattdessen hat die amtierende EU-Kommission unter Digitalkommissar Thierry Breton im Dezember zwei Gesetzesvorhaben zur Plattformregulierung präsentiert, die es sich auszubauen und zu verbessern statt zu bekämpfen lohnt. Nach Jahren der Proteste und Schadensbegrenzung ist das ein willkommener Paradigmenwechsel für die netzpolitische Zivilgesellschaft.

Kolumne: Edit Policy

(Bild: 

Diana Levine, CC-BY

)

In der Kolumne Edit Policy kommentiert die ehemalige Europaabgeordnete Julia Reda Entwicklungen in der europäischen und globalen Digitalpolitik. Dabei möchte sie aufzeigen, dass europäische und globale netzpolitische Entwicklungen veränderbar sind, und zum politischen Engagement anregen.

Notwendig geworden ist der Vorschlag für den Digital Services Act, also eine europaweit einheitliche Plattformregulierung, weil nationale Alleingänge wie das Netzwerkdurchsetzungsgesetz in Deutschland den europäischen Binnenmarkt immer weiter behindern, wenn sich Online-Plattformen an immer mehr unterschiedliche, teils widersprüchliche nationale Regelwerke halten müssen. Gleichzeitig haben Phänomene wie willkürliche Accountsperrungen, Hassrede im Netz, die Beförderung von Desinformation durch Empfehlungssysteme oder auch ausbeuterische Geschäftspraktiken von Online-Marktplätzen gezeigt, dass der Plattformmarkt nicht gänzlich ohne Regulierung auskommt.

Deshalb hat die EU-Kommission nun mit dem Digital Services Act, der alle Intermediären betrifft, und dem Digital Markets Act, der zusätzliche wettbewerbsfördernde Maßnahmen für wenige große Gatekeeper-Plattformen enthält, zwei Verordnungen vorgelegt, die unmittelbar in der ganzen EU geltendes Recht werden, wenn Parlament und Rat sie verabschieden. Genau wie bereits die Datenschutzgrundverordnung sollen diese Gesetze auch für Plattformen gelten, die ihren Sitz außerhalb der EU haben, zumindest wenn sie sich mit ihren Dienstleistungen gezielt an Menschen innerhalb der EU richten.

Der Entwurf für den Digital Services Act zeigt, dass die Proteste gegen Uploadfilter zu einem echten Sinneswandel in Brüssel geführt haben. Erstmals werden die Nutzer:innen von Plattformen nicht in erster Linie als potentielle Kriminelle, oder bestenfalls als Wirtschaftssubjekte betrachtet, sondern als mündige Teilnehmer:innen an einem demokratischen Diskursraum. Erklärtes Ziel des Digital Services Act ist es, auf Plattformen nicht bloß für Sicherheit zu sorgen, sondern allen Menschen „die Ausübung der ihnen durch die Grundrechtecharta garantierten Rechte zu ermöglichen, insbesondere das Recht auf Meinungs- und Informationsfreiheit, unternehmerische Freiheit und Freiheit von Diskriminierung“.

Die Grundpfeiler der Plattform-Innovation der vergangenen zwanzig Jahre, nämlich der Grundsatz, dass Plattformen für die Inhalte ihrer Nutzer:innen nicht haftbar sind und nicht zum Einsatz von Uploadfiltern oder anderen allgemeinen Überwachungspflichten gezwungen werden dürfen, behält der Digital Services Act bei. Hinzu kommen zusätzliche europaweit einheitliche Vorschriften, die in der Summe eher Verbesserungen als Gefahren für die Grundrechte bedeuten.

Grundsätzlich gilt, dass die Grundrechte in erster Linie vor staatlichem Handeln schützen. Wenn ein privates Unternehmen bestimmte Postings löscht, ist das noch nicht automatisch eine Einschränkung der Meinungsfreiheit. Es wäre auch nicht im Sinne der Nutzer:innen, wenn fortan beispielsweise Rezepteplattformen verpflichtet wären, auch politische Diskussionen oder Filmrezensionen zuzulassen, oder Forenmoderator:innen Off-Topic-Diskussionen nicht mehr verschieben dürften, nur weil diese Inhalte gegen kein Gesetz verstoßen.

Dennoch besteht ein wachsendes Problem für die Meinungs- und Informationsfreiheit, wenn etwa soziale Netzwerke für die politische Beteiligung oder den wirtschaftlichen Erfolg immer wichtiger werden und völlig willkürlich bestimmte Inhalte löschen oder Accounts sperren dürfen. Der Digital Services Act sieht also vor, dass alle Intermediären, die User-Inhalte moderieren, diese Moderationsregeln und die Maßnahmen zu ihrer Durchsetzung künftig in ihren allgemeinen Geschäftsbedingungen öffentlich machen müssen. Bei dieser Durchsetzung sind sie an die Grundrechte gebunden.

Das bedeutet, eine Rezepteplattform kann auch in Zukunft nur Uploads von Kochrezepten erlauben, aber sie muss öffentlich machen, welche Inhalte auf der Plattform erlaubt sind, und darf bei der Durchsetzung dieser Regeln nicht diskriminieren. Wenn eine Plattform etwa freiwillig automatische Filtersysteme einsetzt, um bestimmte Inhalte zu sperren, muss sie das öffentlich machen und darf dabei die Meinungsfreiheit nicht verletzen.

Auch wenn der Digital Services Act erfreulicherweise auf verpflichtende Uploadfilter verzichtet, enthält er bestimmte Regeln, die ihren Einsatz in der Praxis befördern könnten. Hier muss das Europaparlament unbedingt nachbessern. Erstmals enthält der Entwurf ein einheitliches System für das Notice-and-Takedown-Verfahren, also die Prozedur, über die Plattformen Informationen über etwaige illegale Inhalte auf ihren Diensten sammeln. Demnach müssen alle Hosting-Provider ein System vorhalten, mit dem Nutzer:innen mutmaßliche illegale Inhalte melden können. Online-Plattformen, die die Veröffentlichung von Inhalten durch Nutzer:innen erlauben und keine Kleinunternehmen sind, müssen darüber hinaus auch ein Beschwerdeverfahren gegen widerrechtliche Sperrungen anbieten.

Durch die Schaffung eines europäischen Regelwerks könnte sich die Praxis ändern, dass bisher das Notice-and-Takedown-System des US-amerikanischen Digital Millennium Copyright Act weltweit zur Sperrung von mißliebigen Inhalten genutzt wird, was es insbesondere nicht-amerikanischen Nutzer:innen erschwert, gegen fälschliche Sperrungen ihrer Inhalte vorzugehen. Problematisch ist aber, dass der Digital Services Act nur unzureichend zwischen unterschiedlichen Arten von illegalen Inhalten unterscheidet. Der Vorschlag, dass grundsätzlich jede:r beliebige illegale Inhalte melden kann, mag für bestimmte Inhalte wie beispielsweise Aufrufe zu Straftaten sinnvoll sein. In anderen Bereichen, wie etwa dem Urheberrecht, ist es aber wichtig, dass nur Rechteinhaber:innen vermeintliche Rechtsverletzungen melden können, weil Dritte oft überhaupt nicht über die notwendigen Informationen verfügen, um beurteilen zu können, ob die Nutzung eines geschützten Werks tatsächlich eine Urheberrechtsverletzung darstellt.

Die einzige Unterscheidung zwischen verschiedenen illegalen Inhalten, die der Digital Services Act in Bezug auf das Notice-and-Takedown-Verfahren vornimmt, ist dass Personen, die dokumentierten Kindesmissbrauch melden, sich selbst nicht identifizieren müssen. So wird die Hemmschwelle für die Meldung solch schwerer Straftaten gesenkt, weil meldende Personen ein geringeres Risiko eingehen, sich selbst strafrechtlich zu belasten. Weitere Differenzierungen dieser Art wären notwendig, um die Effektivität des Systems zu erhöhen und missbräuchliche Meldungen von vermeintlich illegalen Inhalten zu verhindern.

Am problematischsten am vorgeschlagenen Notice-and-Takedown-Verfahren ist aber, dass eine Meldung eines vermeintlich illegalen Inhalts, die hinreichend präzise begründet, warum der Inhalt illegal zu sein scheint, automatisch zu einer Haftung der Plattform führt, wenn diese den Inhalt nicht unverzüglich entfernt. Die vollautomatische Sperrung von Inhalten, für die die Plattform solche Meldungen erhält, ist ausdrücklich erlaubt, solange die Plattform den Einsatz solcher Filtersysteme transparent macht.

Die hohe Zahl von Meldungen, die gerade große Provider wie Google oder Facebook erhalten, verbunden mit dem hohen Haftungsrisiko, das durch eine zeitraubende menschliche Prüfung von Meldungen entstehen würde, lädt Plattformen natürlich dazu ein, automatisch alle Inhalte zu sperren, für die eine Meldung eingeht. Aus dem USA sind jedoch bereits umfassende Missbrauchsfälle bekannt, in denen das Notice-and-Takedown-Verfahren benutzt wurde, um beispielsweise kritische Berichterstattung oder andere missliebige Inhalte aus der Google-Suche zu entfernen. Diese Art von Missbrauch wird durch automatische Sperrsysteme befeuert. Zwar können Personen, die wiederholt fälschliche Meldungen schicken, vom Meldesystem ausgeschlossen werden. Da aber jede:r vermeintliche illegale Inhalte melden kann, wird diese Maßnahme kaum Wirkung entfalten, weil man einfach eine andere Person beauftragen kann, die Meldungen abzuschicken.