EU-KI-Konsultation: Mehrheit für Regulierung von Gesichtserkennung

Die EU-Kommission hat die Eingaben zu ihrem KI-Weißbuch ausgewertet. Die große Mehrheit befürchtet eine Diskriminierung durch KI – und viele fordern ein Verbot.

Lesezeit: 2 Min.
In Pocket speichern
vorlesen Druckansicht Kommentare lesen 22 Beiträge
EU-KI-Konsultation: Mehrheit für Regulierung von Gesichtserkennung

(Bild: Tatiana Shepeleva/Shutterstock.com)

Von
  • Stefan Krempl

90 Prozent der 1215 Teilnehmer an einer Konsultation der EU-Kommission zu ihrem Weißbuch für ein europäisches KI-Konzept halten Bedenken hinsichtlich der Beeinträchtigung von Grundrechten für wichtig oder sehr entscheidend. 87 Prozent gehen zudem davon aus, dass es zu diskriminierenden Ergebnissen kommen dürfte. Auch die Gefahr, dass KI die Sicherheit gefährdet oder zu nicht nachvollziehbaren Maßnahmen führt, erachteten 82 beziehungsweise 78 Prozent der Befragten als (sehr) wichtig.

Systeme, die eine biometrische Identifizierung aus der Ferne ermöglichen wie die automatisierte Gesichtserkennung, empfindet die Mehrheit der Beteiligten laut der am Freitag veröffentlichten Analyse als zweifelhaft. 28 Prozent sprachen sich für ein generelles Verbot dieser Technologie in öffentlichen Räumen aus. Weitere 29,2 Prozent forderten ein spezielles EU-Gesetz, bevor solche Lösungen in der Öffentlichkeit verwendet werden dürfen.

15 Prozent der Antwortenden waren damit einverstanden, biometrische Identifizierungssysteme allenfalls in bestimmten Fällen und unter klaren Bedingungen zuzulassen. 4,5 Prozent verlangten besonders hohe Anforderungen, um solche Vorgaben festzuzurren. Nur 6,2 Prozent meinten, dass keine weiteren Richtlinien oder Vorschriften erforderlich seien. In einem frühen Entwurf für das Weißbuch hatte die für Digitales zuständige Kommissionsvizepräsidentin Margrethe Vestager ein temporäres Verbot automatisierter Gesichtserkennung im öffentlichen Raum ins Spiel gebracht, einen solchen Schritt dann aber doch nicht mehr für nötig befunden.

Insgesamt äußerten sich 95 Prozent zu Fragen über die Regulierung von Künstlicher Intelligenz. 70 Prozent haben Bedenken, dass es KI an Genauigkeit mangele. 68 Prozent befürchten, dass sie für Schäden, die einschlägige Systeme verursachen, nicht entschädigt werden. 42 Prozent der Teilnehmer sprachen sich daher für einen insgesamt neuen Rechtsrahmen für die Technik aus, 33 für Korrekturen an bestehenden Gesetzen, um die von ihnen ausgemachten Lücken zu schließen.

An der Konsultation, die bald in ein Gesetzespaket münden soll, nahmen 406 Bürger in eigenem Namen teil, 352 als Vertreter von Unternehmen oder Wirtschaftsverbänden. Stimmen aus der Zivilgesellschaft waren mit 160 Teilnehmern etwa von Nichtregierungsorganisationen oder Gewerkschaften dabei, dazu kamen 152 Forscher aus akademischen Einrichtungen.

Nur drei Prozent der Teilnehmer gehen davon aus, dass die gegenwärtige Rechtsbasis völlig ausreichend ist. 18 Prozent hatten dazu eine andere, nicht näher ausgeführte Meinung, vier Prozent gar keine. Was das Ausmaß neuer Gesetze betrifft, waren die Ansichten weniger eindeutig. 42,5 Prozent stimmten zu, dass neue obligatorische Anforderungen auf KI-Anwendungen mit hohem Risiko beschränkt werden sollten. 30,6 Prozent schätzten einen solchen Ansatz als nicht ausreichend ein. Vertreter aus Industrie und Wirtschaft waren zu 54,6 Prozent damit einverstanden, nur Hochrisikoverfahren strenger zu regulieren.

Als besonders gefährlich schätzt die Kommission KI-Techniken ein, die Grundrechte verletzen, persönlichen Schaden verursachen oder Menschen diskriminieren könnten. Diese Definition unterstützten 59 Prozent der Teilnehmer. 37 Prozent wollten sich zur Begriffsbestimmung aber gar nicht äußern. Die Bundesregierung hatte jüngst im Rahmen der Konsultation eine Meldepflicht für Un- und Vorfälle rund um KI gefordert.

Gut 60 Prozent der Teilnehmer wollen, dass die bestehende Produkthaftungsrichtlinie überarbeitet wird, um befürchtete Risiken abzudecken. 47 Prozent der Befragten sind dafür, dass auch die nationalen Haftungsregeln für alle KI-Anwendungen reformiert werden müssen. 16 Prozent plädieren hier für einen spezifischen Ansatz, um eine angemessene Entschädigung bei Problemen und eine gerechte Verteilung der Verantwortlichkeiten zu gewährleisten.

Als besondere KI-bezogene Gefahren, die in diesem Bereich berücksichtigt werden sollten, nannten die Befragten zu 78 Prozent Cyberrisiken und zu 77 Prozent persönliche Sicherheitsrisiken. Psychische Gesundheitsgefahren folgten mit einem Anteil von 48 Prozent. 70 Prozent wünschen sich ein Risikobewertungsverfahren für KI-Produkte, das wichtige Veränderungen während des gesamten Lebenszyklus einschließt. Freiwillige Gütesiegel halten 50 Prozent der Beteiligten bei Anwendungen für sehr sinnvoll, von denen kein hohes Risiko ausgeht.

Parallel hat die hochrangige Expertengruppe für KI eine finale Checkliste für den Einsatz vertrauenswürdiger Künstlicher Intelligenz herausgegeben. Das Instrument soll die Umsetzung ihrer Ethik-Richtlinien auf Basis von Schlüsselanforderungen wie menschliche Handlungsfähigkeit und Kontrolle, technische Robustheit und Sicherheit, Datenschutz und -verwaltung, Transparenz, Vielfalt, Nichtdiskriminierung und Fairness, ökologisches und gesellschaftliches Wohlergehen sowie Rechenschaftspflicht unterstützen.

(vbr)