Edit Policy: PimEyes & Gesichtserkennung in Europa – wo bleibt der Aufschrei?

Gesichtserkennung ist eine massive Gefahr für die Grundrechte, aber eine Debatte über ihren Einsatz gibt es in Deutschland und Europa nicht. Anders in den USA.

Lesezeit: 4 Min.
In Pocket speichern
vorlesen Druckansicht Kommentare lesen 258 Beiträge

(Bild: Scharfsinn/Shutterstock.com/Diana Levine)

Von

Gesichtserkennung stellt eine erhebliche Gefahr für unsere Grundrechte dar. Hierzulande muten Debatten über das Thema oft so an, als handele es sich dabei um Zukunftsmusik – oder ein Problem, das in erster Linie Länder mit einem niedrigeren Datenschutzniveau wie die USA oder China betreffe. Dabei breitet sich die automatische Gesichtserkennung in Europa und auch in Deutschland rasant aus. Bundespolizei und Kriminalämter setzen die Technologie bereits seit Jahren ein, Tendenz stark steigend. Die EU-Kommission investiert in unseriöse Startups, die Gesichtserkennung an Europas Außengrenzen als Lügendetektoren einsetzen wollen. Und ein polnisches Clearview-Klon bietet eine frei zugängliche Gesichter-Suchmaschine im Netz an. Wo bleibt der Aufschrei?

Kolumne: Edit Policy

(Bild: 

Diana Levine, CC-BY

)

In der Kolumne Edit Policy kommentiert die ehemalige Europaabgeordnete Julia Reda Entwicklungen in der europäischen und globalen Digitalpolitik. Dabei möchte sie aufzeigen, dass europäische und globale netzpolitische Entwicklungen veränderbar sind, und zum politischen Engagement anregen.

In einer umfangreichen Recherche hat Netzpolitik kürzlich auf PimEyes aufmerksam gemacht, ein polnisches Gesichtserkennungs-Startup, das die anonyme Suche nach beliebigen Gesichtern in einer Datenbank aus 900 Millionen, augenscheinlich aus öffentlichen Quellen stammenden, Bildern erlaubt. Auch Screenshots aus YouTube-Videos und Instagram-Fotos wurden von der Webseite gesammelt.

Seit Netzpolitik begonnen hat, kritische Fragen zu stellen, bewirbt die Firma ihre Dienste als Privatsphäre-Schutz, der ausschließlich die Suche nach eigenen Fotos erlauben soll. Zuvor schlug die Firma Nutzer*innen noch explizit vor, fremde Bilder, etwa von Prominenten, zu suchen. Einen effektiven Schutz gibt es bis heute nicht, der verhindern könnte, dass die Suchmaschine für Stalking oder Überwachung von Mitarbeiter*innen missbraucht wird.

Dass PimEyes nicht ausschließlich zur Suche nach dem eigenen Bild gedacht ist, zeigt sein Geschäftsmodell, basierend auf kostenpflichtigen Premium-Funktionen, die etwa ein Sonderangebot für 100 Millionen Datenbankabfragen pro Monat enthalten.

Der Datenschutzbeauftragte für Baden-Württemberg, Stefan Brink, geht davon aus, dass PimEyes gegen die Datenschutzgrundverordnung verstößt. Da es sich bei biometrischen Daten um besonders schutzwürdige Informationen handelt, hätte die Firma von jeder Person in ihrer Datenbank aus 900 Millionen Gesichtern eine Einwilligung einholen müssen. Dennoch ist es möglich, dass PimEyes schon heute von europäischen Behörden genutzt wird. Der Firma ist nämlich der Coup gelungen, eine Kooperation mit dem schwedischen Unternehmen Safer Society einzugehen, das seinerseits PimEyes in seine Überwachungssoftware Paliscope integriert hat, die es Behörden zur staatlichen Überwachung oder Strafverfolgung anbietet. Auch die europäische Polizeibehörde Europol ist Kundin von Safer Society.

Als Kommissionspräsidentin Ursula von der Leyen ins Amt gewählt wurde, versprachen sich manche ein härteres Durchgreifen gegen Gesichtserkennungs-Technologien. Von der Leyen versprach einen Gesetzesvorschlag zur Regulierung der „künstlichen Intelligenz“ innerhalb von 100 Tagen (die inzwischen bereits verstrichen sind). Kern der europäischen KI-Regulierung sollten hohe ethische Standards sein, die das Vertrauen in die Technologie stärken und den Vorzug gegenüber rein wirtschaftlichen Erwägungen bekommen sollten.

Ein solcher Gesetzesvorschlag ist bislang ausgeblieben. Anfang des Jahres hat die EU-Kommission lediglich ein Strategiepapier zur künstlichen Intelligenz veröffentlicht. Eine Passage, die in einer früheren Entwurfsfassung ein zeitweises Verbot von Gesichtserkennung im öffentlichen Raum vorschlug, wurde aus der Endfassung gestrichen.

Welche ethischen Standards die EU-Kommission tatsächlich an Gesichtserkennung anlegt, sieht man derweil an ihren Förderprojekten: Aus dem EU-Forschungsfördertopf Horizon 2020 finanziert sie seit Jahren das Programm iBorderCTRL. Hinter dem Programm mit dem dystopischen Namen steckt nichts anderes als ein Lügendetektor, der Menschen bei Grenzübergängen mittels biometrischer Daten vom Gesicht ablesen soll, ob sie in Verhören die Wahrheit sagen.

Dass Lügendetektoren auf Pseudowissenschaft basieren und Gesichtserkennungstechnik insbesondere bei nicht-weißen Menschen erhebliche Fehlerquoten aufweist, hat die EU nicht davon abgehalten, das Programm an den EU-Außengrenzen zu testen, woraufhin Journalist*innen von The Intercept prompt solche Fehler durch iBorderCTRL nachweisen konnten. Dem EU-Abgeordneten Patrick Breyer verweigert die EU-Kommission Informationen über die grundrechtliche Evaluation und die Fehlerraten von iBorderCTRL.

Auch deutsche Behörden setzen vermehrt Gesichtserkennung ein. Die Anzahl der Abfragen von Gesichtserkennungsdatenbanken durch Bundespolizei und Kriminalämter nimmt rasant zu. Dennoch ist in Deutschland und Europa bislang eine breite gesellschaftliche Debatte darüber ausgeblieben, wie die immer weitere Verbreitung von Gesichtserkennung im Alltag nicht nur zu falschen Verdächtigungen beitragen kann, sondern auch unser Verhalten im öffentlichen Raum beeinflusst.

Das Gefühl, unter ständiger Beobachtung zu stehen, löst Stress aus und führt zu einem angepassten Verhalten. Wer befürchten muss, dass bei einer Teilnahme an Demonstrationen Gesichter abfotografiert und von der Polizei – oder sogar von Neonazis – mittels Gesichtserkennung zur Enttarnung von Demonstrierenden genutzt werden, wird sich zweimal überlegen, ob die Wahrnehmung des Grundrechts auf Versammlungsfreiheit das Risiko wert ist.

Das ist keine rein theoretische Gefahr: Bei den G20-Protesten in Hamburg hat die Polizei eine umfangreiche Datenbank zur automatischen Gesichtserkennung angelegt. Bei Tests der Software PimEyes durch das Investigativteam von Netzpolitik fand dieses unter anderem auch Fotos der Bundestagsabgeordneten Anke Domscheit-Berg bei der Teilnahme an einer Anti-Überwachungs-Demo. Das Missbrauchspotential von immer größeren, verdachtsunabhängigen Datensammlungen, die sowohl von Behörden als auch von Unternehmen zur Gesichtserkennung genutzt werden, ist also erheblich.

In den USA ist der Einsatz von Gesichtserkennung zwar bereits weiter fortgeschritten als in Europa. So setzen Strafverfolgungsbehörden die Gesichtserkennungs-Datenbank des umstrittenen Unternehmens Clearview AI ein. Doch auch der Widerstand aus Zivilgesellschaft und Wissenschaft ist deutlich lauter – und zeigt erste Ergebnisse.

Studien über die diskriminierende Wirkung von Gesichtserkennung, die bei den Gesichtern von Frauen und nicht-weißen Personen sehr viel höhere Fehlerraten produziert als bei weißen Männern, haben die Technologie in Verruf gebracht. Pionierarbeit hat hierbei die Wissenschaftlerin Joy Buolamwini geleistet, deren Studie „Gender Shades“ das Phänomen bereits 2018 nachgewiesen hat und deren Ergebnisse seitdem mehrfach von renommierten Wissenschaftseinrichtungen reproduziert wurden. Buolamwini gründete die Algorithmic Justice League), eine zivilgesellschaftliche Initiative gegen den Einsatz diskriminierender Technologien.

Als es dann tatsächlich zur falschen Festnahme des Afroamerikaners Robert Williams durch Fehler bei der Gesichtserkennung kam, war das Problem durch die Vorarbeit von Wissenschaft und Zivilgesellschaft der Presse bereits bekannt. Der Fall machte landesweit Schlagzeilen. Auch der Talkshow-Host John Oliver hat die Gefahren von Gesichtserkennung in einem Video aufgegriffen, das allein auf YouTube bereits sieben Millionen Mal gesehen wurde.

Die Kampagne gegen Gesichtserkennung in den USA hat bereits eine Reihe von Erfolgen vorzuweisen. Mehrere Städte, darunter San Francisco und Oakland, haben die Gesichtserkennung im öffentlichen Raum verboten. Der Bundesstaat Massachusetts berät das Verbot, das mehrere Gemeinden dort bereits beschlossen haben, auf den gesamten Staat auszuweiten. Infolge der Black Lives Matter-Proteste, die Rassismus und Polizeigewalt in den Fokus genommen haben, entzogen Microsoft, Amazon und IBM der US-Polizei (zumindest vorübergehend) den Zugang zu ihren Gesichtserkennungs-Tools.

Dieses Engagement brauchen wir auch in Deutschland und Europa, um der rasanten Ausbreitung und Normalisierung von Gesichtserkennung etwas entgegenzusetzen. In der Initiative Gesichtserkennung Stoppen! haben sich unter anderem der Chaos Computer Club, D64 – Zentrum für digitalen Fortschritt (dessen Beirat ich angehöre) und Digitale Gesellschaft e.V. zusammengeschlossen, um ein Verbot von Gesichtserkennung im öffentlichen Raum und dessen Einsatz durch den Staat zu erreichen.

Die Texte der Kolumne "Edit Policy" stehen unter der Lizenz CC BY 4.0.

(mho)