Menü

Datenschützer wollen Risiken der biometrischen Online-Authentifizierung beherrschbar machen

Unternehmen müssen bei der Konzipierung und dem Betrieb biometrischer Online-Authentifizierungssysteme die damit verbundenen Datenschutzrisiken beherrschen, verlangt die einflussreiche "Berlin Group" internationaler Datenschutz-Aufsichtsbehörden.

vorlesen Drucken Kommentare lesen 15 Beiträge

(Bild: dpa)

Die "Internationale Arbeitsgruppe zum Datenschutz in der Telekommunikation", die von der Berliner Landesdatenschutzbeauftragten Maja Smoltczyk geleitet wird, hat Empfehlungen zur Biometrie in der Online-Authentifizierung herausgegeben. Die 1983 eingerichtete, auch als "Berlin Group" bekannte Arbeitsgruppe besteht aus europäischen und internationalen Vertretern von Datenschutzbehörden. Ihren Empfehlungen folgten bereits mehrere europäische Regulierungen.

Wenn Online-Dienste die passwortbasierte Authentifizierung durch eine mehrstufige Authentifizierung ersetzen oder ergänzen, nutzen sie immer häufiger biometrische Verfahren. So kündigte etwa Mastercard an, demnächst in einigen europäischen Ländern Selfies oder Fingerabdrücke für Online-Bezahlvorgänge als Authentifizierungsmechanismus anzubieten. Ähnliches hat auch Amazon vor.

Die "Berlin Group" betont, dass Unternehmen ihre Entscheidung, Biometrie als Faktor in der Online-Authentifizierung zu nutzen, in einer Datenschutz-Folgenabschätzung dokumentieren sollten. Dies können die europäischen Aufsichtsbehörden ab Mai 2018 nach der dann geltenden Datenschutz-Grundverordnung den Unternehmen auch verpflichtend vorgeben. Die Gruppe weist auf Privacy-Risiken hin, die bei der Entscheidung abgewogen werden müssen. Diese können sich je nach verwendetem biometrischen System stark unterscheiden: So kann Gesichtserkennung bei Personen eingesetzt werden, die nicht wissen, dass sie von diesem System betroffen sind, während Fingerabdrucksysteme normalerweise die aktive Beteiligung der Person erforderlich machen.

Überdies weist die Arbeitsgruppe darauf hin, dass biometrische Daten im Gegensatz zu Passwörtern keine Geheimnisse sind und daher nicht einfach zu ändern oder zu widerrufen sind: "Die Personen sind sich im Allgemeinen der Gefahren bewusst, die mit der Offenlegung eines Passwortes verbunden sind, aber man kann nur schwer verhindern, dass das Gesicht oder die Stimme aufgenommen wird." Schließlich handele es sich bei der biometrischen Authentifizierung um eine Wahrscheinlichkeitsaussage, deren Qualität letztlich vom verwendeten System und seiner Konfiguration abhängt.

Die Arbeitsgruppe empfiehlt deshalb dem Gesetzgeber einen rechtlichen Rahmen für die spezifischen Datenschutzrisiken zu entwickeln. Hersteller sollten ihre biometrischen Systeme unter anderem so konzipieren, dass die biometrischen Rohdaten nach Generierung der biometrischen Templates gelöscht werden. Auch sollten sie die Templates nicht in zentralen Datenbanken, sondern nur lokal sicher speichern. Hierfür sollten sie spezialisierte Sicherheitsmodule wie etwa die "iOS Secure Enclave" oder das "Android Trusted Execution Environment" verwenden. Überdies sollten sie alle relevanten Hard- und Software-Komponenten auch für die Endverbraucher dokumentieren.

Die Datenschützer betonen außerdem, dass die Aktionen der Nutzer nicht über mehrere Systeme miteinander korreliert werden dürfen. Nutzer dürften zudem nicht gezwungen werden, biometrische Systeme zu nutzen, sondern sollten vor eine aktive Wahl der Authentifizierungsmethoden gestellt werden. Bemerkenswert ist, dass sich die Empfehlungen der internationalen Arbeitsgruppe methodisch an den sechs Gewährleistungszielen des Standard-Datenschutzmodells orientieren, das die deutschen Aufsichtsbehörden derzeit als Prüfkonzept erproben. (anw)