Menü

EU-Ratsspitze warnt vor Massenüberwachung durch Künstliche Intelligenz

Finnland malt beim Einsatz von KI in der Strafverfolgung düstere Szenarien aus, skizziert aber auch einen "digitalen Assistenten" für die Polizei.

Lesezeit: 2 Min.
In Pocket speichern
vorlesen Druckansicht Kommentare lesen 36 Beiträge
Von

Die seit Anfang Juli amtierende finnische Präsidentschaft des EU-Rates hat in einem Papier für ein informelles Treffen der Justiz- und Innenminister der Gemeinschaft Chancen und Risiken für den Einsatz von Künstlicher Intelligenz (KI) im Bereich Strafverfolgung ausgelotet. Sie macht sich darin etwa Sorgen, dass "die Massenüberwachung, die in einigen Teilen der Welt bereits existiert, eine schwerwiegende Bedrohung für die Privatsphäre darstellt". Künftig könne diese Gefahr durch die digitale Schlüsseltechnik KI noch deutlich größer werden.

Große und repräsentative Datensets seien zwar nötig für Forschungs- und Trainingsverfahren in diesem Bereich. Es werde voraussichtlich aber etwa bald möglich sein, sensible personenbezogene Informationen wie medizinische und psychologische Details aus Überwachungsdaten automatisch herauszuziehen und zu analysieren, schreiben die Finnen in dem von "Statewatch" veröffentlichten Beitrag. Biometrische Identifikationsmöglichkeiten beispielsweise per Gesichtserkennung könnten die Tür öffnen für "KI-gestützten Identitätsdiebstahl", prognostizieren sie. Denkbar sei auch, dass autonome Miniaturdrohnen mit dieser Technik bestückt und für "Mordanschläge oder Spionage" genutzt würden.

Die Ratsspitze skizziert neben sozialen Herausforderungen etwa durch zunehmende, durch die Automatisierung bedingte Arbeitslosigkeit diverse direkte Sicherheitsbedrohungen durch Künstliche Intelligenz. "Botnetze und Maschinenlernen ermöglichen es feindlichen Akteuren, massive und maßgeschneiderte Cyberangriffe auszuführen und Operationen ohne signifikante Ressourcen, ausgefeilte Fähigkeiten oder eine große Anzahl an Gefolgsleuten zu beeinflussen", heißt es in dem Dokument. Nutzer sozialer Netzwerke könnten einfach und massenhaft durchleuchtet werden, was derlei Kampagnen noch schlagkräftiger mache. Gefälschte Fotos, Audiosequenzen oder Videos seien bereits sehr einfach zu produzieren.

Daraus entstehende "Deep Fakes" und anderes künstlich erstelltes, aber realitätsgetreu wirkendes digitales Material untergraben laut der finnischen Regierung das Vertrauen in Beweise. Dies könnte sich gerade für Polizei und Justiz als "extrem schädlich" erweisen, sodass die Entwicklung von Instrumenten zum Aufspüren gefälschter Medieninhalte Priorität genießen sollte. Zudem müssten Mindestsicherheitsstandards für Produkte mit KI und Roboter eingeführt werden, die militärisch sowie zivil genutzt werden. Für gewisse Kategorien solcher Techniken sollte zumindest eine Registrierung vorgeschrieben werden.

Auch einen Bann tödlicher autonomer Waffensysteme bringen die Finnen ins Spiel. Generell gibt ihnen zu bedenken, dass eine "von KI durchdrungene Gesellschaft" zu komplex und intransparent werden könnte, um sie überhaupt noch zu verstehen. Voreingenommenheit in den Trainingsdaten wirke sich vielfach auf automatisiert gefällte Entscheidungen selbst aus. Nötig seien daher eine Ethikprüfung sowie klare Richtlinien für den Einsatz von KI-Technologien bei der Polizeiarbeit.

Künstliche Intelligenz sieht die Präsidentschaft aber auch als Mittel gegen die wachsende "Informationsüberlastung" von Ermittlern im ständig anschwellenden "Daten-Tsunami". Ein an den jeweiligen Nutzer angepasster "digitaler Assistenz" könnte ihr zufolge nicht nur intelligente Suchfunktionen ausführen, sondern auch Anweisungen über eine Schnittstelle für natürliche Sprache entgegennehmen und diese an verschiedene Anwendungen weitergeben.

Die gleiche Technologie bringen die Autoren ins Spiel für "Kundendienst-Bots" bei Strafverfolgungsbehörden, die Fragen von Bürgern beantworten. Selbst Polizeistreifen könne ein solcher digitaler Helfer in so manchem Einsatz den Rücken freihalten, meinen sie. Parallel müsse aber auch hier sichergestellt sein, dass derlei Systeme für die Nutzer transparent bleiben. Auf das sonst oft beackerte Feld der "vorausschauenden Polizeiarbeit" durch "Predictive Policing" gehen die Verfasser nicht ein. (jk)