EU will KI-System als Lügendetektor für Grenzkontrollen einsetzen

Logo des iBorderCtrl-Projekts

Das iBorderCtrl-System wird nun in Ungarn, Griechenland und Lettland getestet, Reisende werden damit bereits vor der Ankunft überprüft

Es war eine Reaktion auf den Flüchtlingsstrom 2015, warum die EU 2016 im Rahmen des Forschungsprogramms Horizon 2020 4,5 Millionen Euro für die Entwicklung eines neuen Grenzkontrollsystems bereitstellte. Das Intelligent Portable Border Control System soll ein intelligentes und tragbares System zur Sicherung der Landgrenzen sein, das Kontrollen beschleunigt. Daneben wurde die Entwicklung von Radarsystemen zur Meeresüberwachung über große Entfernungen, ein Scanner, der automatisch innen und außen versteckte Dinge erkennen kann, ein biometrisches Erkennungssystem oder ein System zur Erkennung und Verfolgung von tieffliegenden Drohnen gefördert.

Das intelligente Grenzkontrollsystem für nicht EU-Bürger setzt, man will ja mit der Zeit gehen, auch auf Künstliche Intelligenz, und integriert biometrische Identifizierung, automatisierte Täuschungsentdeckung, Authentifizierung von Dokumenten und kumulierte Risikobewertung (Flyer). Es besteht aus zwei Stufen, womit der faktischen Kontrolle an der Grenze schon vor Antritt der Reise eine erste Prüfphase vorhergeht. Es soll also schon präventiv gehandelt werden. Vorausgesetzt wird (noch), dass der Reisende in Erfassung und Verarbeitung der eingegebenen und erhobenen Daten einwilligt.

Reisende in die EU müssen sich vor der Reise nicht nur registrieren und persönliche Daten, Reisedokumente und Fahrzeugdaten eingeben, sie müssen auch ein kurzes Gespräch - eigentlich ein Verhör - mit einem Avatar führen, der wie ein Lügendetektor die Antworten auf Fragen etwa nach dem Reiseziel oder was sich im Gepäck befindet auf Wahrhaftigkeit prüft und die angegebenen Daten mit der Datenbank abgleicht, also mit etwaigen vorliegenden Informationen über den Reisenden, aber auch mit externen Systemen wie SIS II und offenen Daten. Das KI-basierte System gibt dann eine Risikoabschätzung an. Der Avatar richtet sich in Aussehen und Verhalten nach dem Geschlecht, der ethnischen Herkunft und der Sprache des Reisenden.

Im Frage-Antwort-Spiel prüft das KI-System anhand der Beobachtung von 38 Mikrogesten, ob der Befragte lügt, täuscht oder unsicher ist. Solche Mikrogesten bzw. Minigesichtsausdrücke, die Menschen nur schwer erkennen, sind auch schwer oder nicht zu kontrollieren. Die Theorie stammt von dem Psychologen Paul Ekman, der ein Klassifikationssystem für emotionale Gesichtsausdrücke ausgearbeitet hat. Die 43 Gesichtsmuskeln können an die 10.000 unterschiedliche Gesichtsausdrücke erzeugen, von denen nach Ekman 3.000 bedeutsam sein sollen. Das KI-Programm wertet also nur einen Bruchteil der möglichen Kleinst-Gesichtsausdrücke aus.

Die zweite Stufe findet dann während der Grenzkontrolle statt, bei der das mobile KI-System zur Geltung kommt. Mit dem tragbaren iBorderCtrl, das überall, also auch in Zügen oder Bussen eingesetzt werden kann, werden in Echtzeit die bei der Registrierung eingegebenen Daten mit Ergebnissen der Sicherheitskontrollen an der Grenze abgeglichen, wobei die Echtheit der Dokumente, die Gesichtserkennung mit dem Bild im Ausweis und eine erneute automatische Lügendetektion in Echtzeit während des Gesprächs mit dem Grenzbeamten stattfindet. An der Entwicklung beteiligt sind Institutionen aus vielen EU-Ländern, allen voran Griechenland, Polen und Ungarn, aber auch Lettland, Spanien und Deutschland sind dabei.

Aus einem Flyer des iBorderCtrl-Projekts.

In Ungarn, Griechenland und Lettland, die Grenzen zu Nicht-EU-Ländern besitzen, wird iBorderCtrl im Zug- und Autoverkehr sowie bei Fußgängern getestet. Die Tests finden parallel zur normalen Grenzkontrolle statt und ersetzen sie nicht. Fällt jemand durch, soll er auch noch die Grenze passieren können, es soll weder eine negative noch eine positive Diskriminierung stattfinden. Für die Reisenden wird versprochen, dass die Grenzkontrolle mit dem System schneller abgewickelt werden könne. Die EU-Kommission ist offenbar stolz auf das System, das in den wachsenden Sicherheitsmarkt passe, weswegen seit geraumer Zeit auch Sicherheitstechniken gefördert werden. Das neue System sei deswegen interessant, weil "es Daten sammelt, die über die Biometrie hinaus- und zu Biomarkern der Täuschung weitergehen".

Nach dem New Scientist ist das System allerdings auch nur aus der Sicherheitsperspektive bislang kaum überzeugend. Es sei gerade einmal an 30 Personen getestet worden, von denen die Hälfte schwindeln und die andere Hälfte die Wahrheit sagen sollte. Das System erreichte eine Trefferrate von 76 Prozent. Keeley Crockett von der Manchester Metropolitan University erklärte, man sei im iBorderCtrl-Team "ziemlich sicher", dass man die Trefferrate auf 85 Prozent bringen könne. Aber den Optimismus kann man bei den Entwicklern auch als gegeben voraussetzen. Ob die Hoffnung realistisch ist, darf bezweifelt werden. Einmal abgesehen davon, ob wir Systeme begrüßen, die Unsicherheiten feststellen und dies als Risiko auslegen.

Nach 9/11 wuchs die Paranoia nicht nur in den USA. Es wurden zahlreiche Überwachungs- und Sicherungsmaßnahmen eingeführt. Bei Reisenden ging es oft darum, irgendwie verdächtige Absichten erkennen zu können. Im Rahmen der National Strategy for Homeland Security ging es etwa um die Entwicklung von "Systemen zum Erkennen der bösen Absichten von Terroristen". Die Nasa machte daraufhin den Vorschlag, "nichtinvasive neuro-elektrische Sensoren" einzusetzen, die in Durchgänge eingebettet sind und die vom Gehirn und vom Herzen der Passagiere ausgehenden elektrischen Signale erfassen können. Die physiologischen Daten könne man dann mit den bereits erfassten Daten über eine Person verbinden, um so irgendwie einen Hinweis auf Passagiere zu finden, "die eine Bedrohung darstellen können".

Noch mit geschulten menschlichen Beobachtern wurde ein ähnliches Verfahren zur Identifizierung verdächtigen Verhaltens unter dem Namen "Screening Passengers by Observation Techniques" (SPOT) ab 2002 an amerikanischen Flughäfen bereits getestet und 2008 eingeführt. Dabei ging es, wie später bekannt wurde, aber nicht nur um Mikrogesten, sondern Menschen machten sich auch verdächtig, wenn sie komisch gekleidet waren, viel gähnten, zu Boden oder starr schauten, wegen kürzlichen Rasierens eine weiße Haut hatten oder sich exzessiv räusperten. Insgesamt wurde auf 93 Merkmale geachtet.

Natürlich wünschte man sich schon bald, die Beobachter durch technische Systeme zur Entdeckung verdächtigen Verhaltens zu ersetzen. Die Wunschtechnik soll am liebsten "nicht-invasiv, aus der Entfernung, verdeckt, passiv und automatisch" das Verhalten checken. Und dabei würde man gerne über nur verdächtiges Verhalten hinausgehen, sondern irgendwie auch vom Verhalten oder durch irgendwelche anderen Zeichen auf die Absichten einer Person schließen können. Das technische System sollte auch "physiologische Reaktionen oder offenes Verhalten, die mit bösartigen Absichten verbunden sind", erfassen können.

Schon 2013 rügte das Government Accountability Office (GAO), dass das Programm einer wissenschaftlichen Evaluierung nicht statthalte, das Heimatschutzministerium setzte es aber dennoch fort. Die Bürgerrechtsorganisation ACLU übte in einem Bericht im Jahr 2017 schwere Kritik und forderte ebenso die Einstellung des Programms. Verhaltensidentifizierung sei unwissenschaftlich und nicht verlässlich. Zudem könne eine anti-muslimische Diskriminierung festgestellt werden. (Florian Rötzer)

Anzeige