EU-Datenschützer fordern klares Verbot biometrischer Gesichtserkennung

EU-Datenschützer warnen vor dem Ende der Anonymität, wenn die EU-Kommission bei ihren geplanten KI-Regeln nicht nachbessert.

Lesezeit: 4 Min.
In Pocket speichern
vorlesen Druckansicht Kommentare lesen 28 Beiträge

(Bild: Scharfsinn/Shutterstock.com)

Von
  • Stefan Krempl

Der Europäische Datenschutzausschuss (EDSA) und der EU-Datenschutzbeauftragte Wojciech Wiewiórowski schätzen die Risiken bei der biometrischen Identifikation von Personen im öffentlichen Raum aus der Ferne etwa durch Videoüberwachung mit automatisierter Gesichtserkennung als "extrem hoch" ein. Sie drängen daher in einer gemeinsamen Stellungnahme auf ein generelles Verbot jeglicher Nutzung von Künstlicher Intelligenz (KI) zur automatisierten Erkennung menschlicher Merkmale im öffentlich zugänglichen Bereich.

Dies müsse etwa für die automatische Identifikation "von Gesichtern, Gang, Fingerabdrücken, DNA, Stimme, Tastenanschlägen und anderen biometrischen oder verhaltensbezogenen Signalen" gelten, betonen die beiden Kontrollinstanzen. Ferner fordern sie einen Bann von KI-Systemen, die biometrische Daten verwenden, um Personen aufgrund ihrer ethnischen Zugehörigkeit, ihres Geschlechts, ihrer politischen oder sexuellen Ausrichtung oder aus vergleichbaren Gründen in Gruppen einzuteilen. Eine solche Diskriminierung verstoße gegen die europäische Grundrechtecharta.

Ferner halten die Aufsichtsbehörden den Einsatz von KI zum Ablesen von Emotionen einer natürlichen Person als "höchst unerwünscht" und rufen auch hier nach einem Verbot. Ausnahmen sollten gelten, wenn eine solche Erkennung für medizinische Zwecke wichtig sei. Zudem sollte jede Art von Social Scoring untersagt werden. Mit solchen statistischen Verfahren, die aus dem Bereich der Bonitätsprüfung stammen, soll das soziale Verhalten von Bürger im Rahmen von Punktesystemen bewertet werden.

Die EDSA-Vorsitzende Andrea Jelinek und Wiewiórowski unterstreichen, dass ohne solche Verbote "das Ende der Anonymität" in der Öffentlichkeit drohe. Anwendungen wie Gesichtserkennung in Echtzeit "greifen in die Grundrechte und -freiheiten in einem solchen Ausmaß ein", dass sie deren Wesen dieser Rechte infrage stellen könnten. Daher müsse das Vorsorgeprinzip gelten, um einen "menschenzentrierten Rechtsrahmen für KI" zu schaffen. Der Bundesdatenschutzbeauftragte Ulrich Kelber stellte klar: "Wir wollen keine KI im grundrechtlichen Graubereich."

Die EU-Kommission will mit ihren geplanten KI-Regeln nur eine biometrische Identifizierung aus der Ferne in Echtzeit prinzipiell verhindern. Ein nachträglicher Einsatz der Technik etwa zur Fahndung wäre davon nicht betroffen. Zudem hat die EU-Kommission auch für die Live-Erkennung einige Ausnahmen vorgesehen. So soll die Polizei solche Verfahren etwa einsetzen können für Suche nach vermissten Kindern oder Terrorverdächtigen sowie allgemein im Kampf gegen schwere Verbrechen. Auch viele zivilgesellschaftliche Organisationen verlangen ein allgemeines Verbot biometrischer Erkennungstechniken in der Öffentlichkeit.

Den risikobasierten Ansatz der EU-Kommission zum Einhegen von KI-Systemen begrüßen die Datenschützer grundsätzlich. Sie sprechen sich aber dafür aus, das Konzept stärker mit der Datenschutz-Grundverordnung (DSGVO) in Einklang zu bringen sowie die gesellschaftlichen Risiken für Gruppen abzuschätzen und abzumildern. Zugleich hinterfragen die Gremien die vorgesehene "vorherrschende Rolle" des geplanten neuen europäischen KI-Ausschusses. Dieser müsse unabhängig und ein harmonisiertes Regulierungsverfahren gesichert sein. Die bestehenden Datenschutzbehörden setzten die DSGVO bereits auch im Bereich KI um, sodass sie auch formell als Aufsichtsgremien im Rahmen des Vorschlags anerkannt werden sollten.

Der EDSA mahnt zudem in einem Brief an die EU-Instanzen an, dass bei den Plänen für einen digitalen Euro ein "sehr hoher Datenschutzstandard" entscheidend sei, um das Vertrauen der Endverbraucherinnen und -verbraucher zu fördern. Entsprechende Bedenken sollten von Anfang an in den Designprozess einbezogen und frühzeitig eine Datenschutzfolgenabschätzung durchgeführt werden. Angenommen hat der Ausschuss ferner die finale Version seiner Empfehlungen zu zusätzlichen Maßnahmen, um Datenflüsse in Drittstaaten im Lichte des "Schrems II"-Urteils des Europäischen Gerichtshofs abzusichern. Die Papiere sollen in den kommenden Tagen veröffentlicht werden.

(olb)