Gesichtserkennung in Europa auf dem Vormarsch

Gesichtserkennung in Europa auf dem Vormarsch

Trends & News | News

Bild: Sven Hoppe / dpa

Nicht nur in China und den USA, auch in der EU setzen Fahnder auf Software zur Gesichtserkennung – und auf das umstrittene Clearview-System.

Sich nicht mehr anonym in der Öffentlichkeit bewegen zu können: Diese Sorge haben bislang vor allem Menschen in China, wo Gesichtserkennungssysteme weiter verbreitet sind als in allen anderen Staaten. Schlagzeilen machte vor ein paar Wochen auch eine gigantische Gesichterdatenbank der Firma Clearview AI, die vor allem von US-Polizeibehörden genutzt wird.

Weniger bekannt ist, dass auch europäische Staaten den Einsatz der Technik forcieren. Polizeibehörden in Deutschland und weiteren EU-Ländern nutzen seit Jahren Gesichtserkennung und wollen nun ihre Bilddatenbanken international vernetzen. Das Ergebnis wäre eine schwer überschaubare Sammlung, durch die auch vollkommen unbescholtene Bürger ins Visier von Fahndern geraten dürften.

Laut einer im Dezember veröffentlichten Umfrage der deutschen Organisation AlgorithmWatch nutzt die Polizei in mindestens zehn EU-Ländern aktuell Software zur Gesichtserkennung. Acht weitere wollen die Technik demnach bald einführen. Laut AlgorithmWatch enthalten die Datenbanken zum Beispiel in den Niederlanden auch Fotos von Verdächtigen, die nie eines Verbrechens angeklagt wurden.

Auch die Software von Clearview hat in Europa Begehrlichkeiten geweckt. So zählen Behörden aus Belgien, Frankreich, Großbritannien, den Niederlanden, Italien und weiteren EU-Ländern zu den Testern oder Kunden der US-Firma. Das wurde vor Kurzem bekannt, weil dem Unternehmen eine Liste von 2900 Behörden und Firmen abhanden kam, die die Software gekauft oder getestet haben.

Clearview-Kunden gleichen Gesichter, etwa aus Handy- oder Überwachungskamera-Aufnahmen, mit einer Datenbank aus rund drei Milliarden Fotos ab und identifizieren so Personen. Große Teile der Sammlung wurden rechtswidrig aus sozialen Netzen zusammengeklaubt, sie enthält also Bilder unbescholtener Bürger aus aller Welt. Clearview hat auch deutschen Internet-Nutzern auf Nachfrage bestätigt, dass ihre Konterfeis enthalten sind.

Bisherige nationale Bemühungen von Strafverfolgern halten da nicht mit. Das vor allem als Verbrecherkartei dienende System „Next Generation Identification“ des FBI enthielt 2016 „erst“ 412 Millionen Gesichtsbilder. In den Datenbanken der deutschen Sicherheitsbehörden stehen aktuell gut 5,8 Millionen Fotos für Anfragen durch Polizei und Zoll zur Verfügung. Enthalten sind Bilder von erkennungsdienstlich behandelten Personen, also Tatverdächtige, aber auch Asylbewerber. Genutzt wurde das System zum Beispiel von der Hamburger Polizei bei der Suche nach Randalierern im Umfeld des G20-Gipfels.

Doch die nationalen Systeme sollen miteinander verbunden werden. Auf eine Vernetzung innerhalb der EU drängt aktuell zum Beispiel eine Polizeiarbeitsgruppe aus zehn Mitgliedsstaaten unter der Führung Österreichs. Dies geht aus einem vertraulichen Bericht hervor, aus dem vor kurzem die US-Website „The Intercept“ zitierte.

Dazu soll der 2007 geschlossene Vertrag von Prüm ausgebaut werden, der die EU-weite Zusammenarbeit zur Bekämpfung von Terrorismus, grenzüberschreitender Kriminalität und als illegal eingestufter Migration regelt. Im Bereich der Biometrie sind die Prümer Beschlüsse noch auf DNA- und Fingerabdruckdaten beschränkt. DNA-Daten werden in Deutschland nur im Rahmen von Strafverfahren erhoben, Fingerabdrücke auch von Asylbewerbern.

Die Bundesregierung bestätigte im September, dass deutsche Behörden die Initiative zum Prüm-Ausbau mit vorantreiben, obwohl diese bislang weder vom EU-Parlament noch vom Rat befürwortet wurde. Das Bundeskriminalamt (BKA) bringe seine Erfahrungen aus dem von ihm schon eingesetzten System zur Gesichtserkennung in die EU-Arbeitsgruppen mit ein.

Sollte die zweite Stufe des Prümer Vertrags zünden, ist es vermutlich nur eine Frage der Zeit, bis einschlägige Systeme der EU und der USA zusammengeschaltet werden. Für den Abgleich von Fingerabdrücken gibt es solche Kooperationen zwischen europäischen und US-Fahndern schon.

Auch der Einsatz von Überwachungskameras mit Gesichtserkennung ist kein Tabu in der EU. Nach dem ersten Bericht über Clearview in der New York Times ruderte Bundesinnenminister Horst Seehofer zwar zurück bei seinem Vorhaben, die Fahndungstechnik an 135 deutschen Bahnhöfen und 14 Flughäfen zu installieren. Es seien noch „einige Fragen“ etwa rund um die gesellschaftliche Akzeptanz der Fahndungstechnik offen, meinte er.

Bei dem Einlenken handelt es sich aber wohl nur um eine taktische Maßnahme. Seehofer hatte zuvor klar gemacht, dass er von der Technik überzeugt ist. Ihm dürfte vor allem daran liegen, andere Regeln seines aktuellen Gesetzentwurfs ohne lange Diskussion in Kraft zu setzen. Er will etwa die Kompetenzen der Bundespolizei ausweiten, damit diese verschlüsselte Kommunikation belauschen kann.

Auch für die EU-Kommission ist Ge­sichtserkennung im öffentlichen Raum kein No-Go. In einem Mitte Januar publik gewordenen Entwurf eines KI-Regulierungsrahmens („Weißbuch“) hatte Kommissarin Margrethe Vestager zwar ein temporäres Verbot ins Spiel gebracht. Als sie das Papier einen Monat später offiziell präsentierte, war davon aber keine Rede mehr. Die Brüsseler Regierungsinstitution setzt nun stattdessen auf eine „breit angelegte europäische Debatte“ über die Technik.

Laut der Umfrage von Algorithm­Watch unter europäischen Behörden wird in der EU „auch die Gesichtserkennung in Echtzeit immer gebräuchlicher“. Mehrere Länder suchten damit in Fußballstadien nach Personen, die als gewalttätig eingestuft wurden. In Irland komme sie routinemäßig zum Einsatz, um Sozialleistungsansprüche zu verifizieren. Die genaue Funk­tionsweise der Systeme ist öffentlich nicht bekannt.

Im belgischen Kortrijk und im spanischen Marbella setze die Polizei zudem Software zur „Körpererkennung“ ein. Diese solle Personen anhand ihres Laufstils oder ihrer Kleidung identifizieren. Beide Systeme könnten auch Gesichter erkennen, diese Funktion sei aber noch deaktiviert.

AlgorithmWatch sieht den Vormarsch der Gesichtserkennungssysteme aus mehreren Gründen kritisch. Auch bei hoher Genauigkeit der Technik seien zahlreiche Fehlalarme unvermeidlich. Bei 10.000 gefilmten Personen und einer Falsch-Positiv-Quote von nur einem Prozent würden 100 Menschen fälschlich als Gesuchte markiert, rechnet die Organisation vor.

In einigen Tests seien die Fehlalarmquoten sogar noch viel höher gewesen. So habe die Gesichtserkennung in der U-Bahn von Buenos Aires in einem Vierteljahr zu 1227 Alarmierungen geführt, von denen nur 226 korrekt gewesen seien. In einem Versuch in London habe die Software 104 Übereinstimmungen gemeldet, „von de­nen nur zwei richtig waren“. (cwo)


Der Clearview-Skandal sollte Politiker der „Nichts zu verbergen“-­Fraktion endgültig aufwecken: Es gibt im digitalen Raum kein personenbeziehbares Datum ohne Belang mehr. Ist etwa ein noch so unscheinbares Familienfoto erst einmal im Netz, kann es auch missbraucht werden.

Zum Rekapitulieren: Ein vom Investor Peter Thiel (Facebook, Paypal, Palantir) unterstütztes Start-up klaut milliardenweise Fotos Unverdächtiger von Facebook, YouTube, Twitter & Co., baut diese in eine eigene Datenbank zur Gesichtserkennung ein und bietet Abgleichdienste zahlungskräftigen Kunden an. Nicht nur Strafverfolger in Saudi-Arabien, den Vereinigten Arabischen Emiraten, den USA und der EU machen davon Gebrauch, sondern auch Konzerne wie Macy's oder Walmart.

Clearview selbst hat zuvor das informationelle Selbstbestimmungsrecht der Betroffenen mit Füßen getreten sowie gegen die DSGVO und die Nutzungsbedingungen der sozialen Netzwerke und App-Store-Betreiber verstoßen.

Mit dem System, das wohl nur die Spitze eines Eisbergs darstellt, ist eine Überwachung à la George Orwell möglich. Relativ einfach lässt sich damit nachvollziehen: Nimmt eine Person an Demonstrationen teil? Wo hält sie sich auf, verkehrt sie etwa in Bordellen oder Bars für Schwule und Lesben? Wo verbringt sie mit wem ihren Urlaub?

So lassen sich nicht nur politische Gegner verfolgen, erpressen oder zu Fall bringen, auch unser Verständnis eines unerkannten Fortbewegens in der Masse im öffentlichen Raum wird hinfällig. Die zunehmende, oft heimlich erfolgende optische Vermessung von Gesichtern und weiteren Körpermerkmalen ist ein weiterer Schritt hin zum maschinenlesbaren Menschen mit massiven Grundrechtseingriffen.

Der biometrischen Gesichtserkennung folgen rasch automatisierte Entscheidungen, deren Algorithmen meist eine Blackbox darstellen und unter Vorurteilen leiden, die über die Datentrainingssets in sie einfließen. Dazu kommen unvermeidliche Fehlerraten. In einem Test 2018 in Berlin erkannten die Systeme mehr als jede 200. Person fälschlicherweise und brandmarkten diese „Treffer“ als verdächtig. Dies würde im Realbetrieb allein am Bahnhof Südkreuz, wo der Test stattfand, täglich zu 600 Fehlalarmen führen.

Europäische Gesetzgeber sollten daher dem Vorbild des Stadtrats von San Francisco folgen und die Hochrisikotechnologie im öffentlichen Raum grundsätzlich untersagen. Vorschriften wie die DSGVO lassen hier noch Schlupflöcher offen.

Dieser Artikel stammt aus c't 7/2020.

Kommentare