KI-Regeln der EU: "Beunruhigende Lücke" bei Diskriminierung und Überwachung

Bürgerrechtler, Forscher, Verbände und Politiker sehen in der geplanten EU-Verordnung für Künstliche Intelligenz gute Ansätze, aber auch Bedarf zum Nachsteuern.

Lesezeit: 6 Min.
In Pocket speichern
vorlesen Druckansicht Kommentare lesen 1 Beitrag

(Bild: mixmagic/Shutterstock.com)

Von
  • Stefan Krempl

Der Entwurf der EU-Kommission für eine Verordnung für harmonisierte Regeln für Künstliche Intelligenz (KI) stößt auf ein geteiltes Echo. Richtigerweise kenne die Brüsseler Regierungsinstitution zwar an, "dass einige Anwendungen von KI einfach inakzeptabel sind und verboten werden müssen", erklärte Sarah Chander von der Initiative European Digital Rights (EDRi). Mit der Initiative würden aber nicht das Ausmaß des inakzeptablen Einsatzes der Technik und nicht alle Formen der biometrischen Massenüberwachung untersagt.

"Dies hinterlässt eine beunruhigende Lücke für diskriminierende und überwachende Technologien, die von Regierungen und Unternehmen genutzt werden", moniert Chander. Der Entwurf lasse "einen zu großen Spielraum für die Selbstregulierung durch Unternehmen, die von KI profitieren." Die Mehrheit der Anforderungen setze "naiv auf KI-Entwickler, um technische Lösungen für komplexe soziale Probleme zu implementieren, die wahrscheinlich von den Unternehmen selbst bewertet werden". So unterstütze die Kommission einen "profitablen Markt für ungerechte KI, die zur Überwachung und Diskriminierung eingesetzt wird".

Die geplanten Verbote gingen nicht weit genug, meint auch die Bürgerrechtsorganisation Access Now. Die Kommission unternehme nichts, "um die Entwicklung oder den Einsatz einer Vielzahl von Anwendungen von KI zu stoppen, die den sozialen Fortschritt und die Grundrechte drastisch untergraben". Der Vorschlag bleibe hinter dem Ziel der EU zurück, "KI zu ermöglichen, der die Menschen vertrauen können", heißt es beim Verbraucherverband Beuc. Die Regeln schützten Verbraucher nicht ausreichend vor möglichen Schäden durch Produkte und Dienste mit KI.

Die Kommission vollziehe eine schwierige Gratwanderung, ordnet Kristian Kersting, Leiter des Fachgebiets "Maschinelles Lernen" an der TU Darmstadt, das Vorhaben ein. Sie versuche sicherzustellen, dass KI dem Ziel diene, das menschliche Wohlbefinden zu steigern. Die EU-Länder sollten auch nicht daran gehindert werden, "mit den USA und China um technologische Innovationen zu konkurrieren". Die Definition von hohem und niedrigem Risiko bei KI-Anwendungsklassen bleibe aber bestenfalls nebulös. Das komplexe, bereits existierende KI-Ökosystem lasse sich so nicht fassen.

Auf Widersprüchlichkeiten verweist der Hamburger Medienrechtler Stephan Dreyer. So würden staatliche Social-Scoring-Verfahren zum Einstufen der Bevölkerung verboten, im privaten Bereich blieben sie aber zulässig. Dies sei liberaler als im zuvor geleakten Entwurf, da mit diesem entsprechende weitgehende Praktiken zum Durchleuchten von Bürgern wohl auch durch Auskunfteien wie die Schufa untersagt worden wären. Für die Tübinger Medienethikerin Jessica Heesen bleibt offen, wie mit Bonitätsbewertungen der Schufa umgegangen werden soll unabhängig davon, ob Algorithmen dahinterstehen.

Der eco–Verband der Internetwirtschaft begrüßte, dass die Kommission von "einer pauschalen Überregulierung Künstlicher Intelligenz absieht und stattdessen einen Fokus auf die KI-Regulierung in Hochrisikoanwendungen setzt". Vor allem beim Einsatz biometrischer Techniken wie Gesichtserkennung müssten hohe Standards gelten, "die den Schutz der Persönlichkeitsrechte angemessen berücksichtigen".

Der Einbezug von KI-Software in den Rahmen für die Produkthaftung könnte für viele Anbieter zu einer übermäßigen Belastung führen, warnt der Branchenverband DigitalEurope. Dieser Bereich werde von kleineren Firmen dominiert, "die wenig bis keine Erfahrung mit Marktzugangsregelungen haben, die vor Jahren für physische Produkte entworfen wurden". Zudem sei hier Tempo gefragt, um die neuesten technologischen Entwicklungen anzuwenden oder Fehler zu beheben. Die IT-Lobby zweifelt so daran, dass sich künftige Startup-Gründer in "Hochrisikobereichen" für Europa entscheiden.

"Bereits heute werden KI-Anwendungen in der Energie- und Wasserwirtschaft eingesetzt, um die Effizienz zu verbessern, Kunden besser zu bedienen, den CO2-Ausstoß zu reduzieren und Arbeitsprozesse effizienter zu gestalten", hob die Branchenvereinigung BDEW hervor: Kritisch sei, dass diese Anwendungen nun als "Hochrisiko KI-Systeme" eingestuft werden sollten. Dies würde einen erhöhten bürokratischen Aufwand und Rechtsunsicherheit bedeuten. Besser wäre es, auf grundsätzliche technologieneutrale Leitlinien zu setzen.

"Viele KI-Systeme zum Beispiel in der Mobilität, in der Medizin, in der Wirtschaft oder in der Justiz bergen Gefahren für die körperliche Unversehrtheit von Menschen oder greifen in ihre elementaren Grundrechte wie Gleichbehandlung oder Privatsphäre ein", schreibt der TÜV-Verband. "Daher ist es richtig, dass KI-Anwendungen entsprechend ihres Gefährdungspotenzials klassifiziert und reguliert werden sollen." Verpflichtende Mindestanforderungen seien aber für alle KI-Anwendungen mit Blick auf Schutzziele wie Sicherheit, Zuverlässigkeit und Transparenz nötig.

Bundesjustizministerin Christine Lambrecht (SPD) bezeichnete den Schutz vor Diskriminierung und wahlloser Massenüberwachung als "wichtige rote Linien, die wir für den Einsatz von KI setzen müssen". Wenn KI bei Entscheidungen in sensiblen Bereichen wie Personalauswahl, Strafverfahren oder der Kreditwürdigkeit zum Einsatz komme, "brauchen wir besonders strenge Regeln und Sicherungsmechanismen". Ethisch unvertretbare KI wie Social Scoring müsse in letzter Konsequenz europaweit verboten werden können. In die anstehenden Verhandlungen im Ministerrat werde sich die Bundesregierung intensiv einbringen und "prüfen, wo wir gegebenenfalls nachschärfen müssen".

Tiemo Wölken von der sozialdemokratischen Fraktion im EU-Parlament lobte, dass die Kommission "das Problem manipulativer Beiträge" auf Plattformen wie Facebook oder YouTube angehe. Die Sozialdemokraten wollten hier dafür sorgen, dass die Vorgaben eine von algorithmischen Beeinflussungsversuchen freie Online-Diskussion ermöglichten. "Wir müssen sicherstellen, dass die Technologien während ihres gesamten Lebenszyklus von Menschen kontrolliert werden", unterstrich seine Fraktionskollegin Evelyne Gebhardt. Der Vorschlag gehe hier nicht weit genug.

Möglichst globale KI-Standards seien wichtig, an entscheidenden Stellen fehle aber noch der Biss, kritisierte Alexandra Geese von der EU-Grünen-Fraktion. Der Vorschlag hätte den "hochriskanten Einsatz von automatischer Gesichtserkennung im öffentlichen Raum in der gesamten EU zur Folge", rügt Patrick Breyer von der Piratenpartei: Die skizzierten verfahrenstechnischen Auflagen seien reine Nebelkerzen. Unzählige Menschen drohten unschuldig verdächtigt zu werden.

(mho)