EU-Studie: Deepfakes gefährden die Demokratie

Deepfakes können zu massiven Schäden für Individuen, Wirtschaft und Gesellschaft führen, warnen Wissenschaftler im Auftrag des EU-Parlaments.

Lesezeit: 5 Min.
In Pocket speichern
vorlesen Druckansicht Kommentare lesen 48 Beiträge

(Bild: Dilok Klaisataporn/Shutterstock.com)

Von
  • Stefan Krempl

Deepfake-Techniken verursachen potenziell zahlreiche gesellschaftliche und finanzielle Schäden. Das Spektrum reiche von der Manipulation demokratischer Prozesse bis zu Unterbrechungen des Finanz-, Justiz- und Wissenschaftssystems. Davor warnen Forscher in einer jetzt vorgestellten Studie, die der Ausschuss für Technikfolgenabschätzung (STOA) des EU-Parlaments in Auftrag gegeben hatte.

Unter Deepfakes verstehen die Wissenschaftler zunehmend realistisch wirkende Fotos, Audios oder Videos, in denen Personen mithilfe von Systemen Künstlicher Intelligenz (KI) in neue Kontexte gestellt werden. Oft würden Dritten etwa Worte in den Mund gelegt werden, die sie so niemals gesagt haben.

Solche computergenerierten Manipulationen ermöglichen laut der Untersuchung, die das niederländische Rathenau-Institut leitete und an der aus Deutschland das Karlsruher Institut für Technologie (KIT) und das Fraunhofer-Institut für System- und Innovationsforschung (ISI) mitwirkten, "alle Arten von Betrug". Häufig gehe es um Identitätsdiebstahl. Individuen – insbesondere Frauen – seien damit einem erhöhten Risiko der Verleumdung, Einschüchterung und Erpressung ausgesetzt. Die Technik werde derzeit vor allem dazu verwendet, Gesichter von Opfern mit denen von Darstellern in Porno-Videos auszutauschen.

Die Bewertung der zugrundeliegenden KI-Techniken für Deepfake-Videos, Audio- und Textsynthese zeigt für die Experten, dass diese sich rasch weiterentwickeln sowie "täglich billiger und zugänglicher werden". Mehrere Trends trügen dazu bei, ein günstiges Umfeld für Deepfakes zu schaffen. Dazu zählten der Wandel der Medienlandschaft durch Plattformen wie soziale Netzwerke, die wachsende Bedeutung der visuellen Kommunikation und die zunehmende Verbreitung von Desinformationen.

"Deepfakes finden sowohl in den traditionellen als auch in den neuen Medien einen fruchtbaren Boden, da sie oft sensationell sind", schlagen die Forscher Alarm. "Besorgniserregend ist, dass pornografische Deepfakes ohne Einwilligung fast ausschließlich auf Frauen abzielen." Die Risiken hätten so auch "eine wichtige geschlechtsspezifische Dimension".

Deepfakes könnten in Kombination mit politischen Microtargeting-Techniken eingesetzt werden, arbeiten die Autoren heraus. Solche gezielten Kampagnen seien meist besonders wirkungsvoll. Sie hätten direkte psychologische Folgen für die Zielperson. Möglich wäre es auch, mit einem fingierten Video einer Politikerin nicht nur persönlich zu schaden, sondern zugleich die Wahlchancen ihrer Partei zu beeinflussen und letztlich dem Vertrauen in demokratische Institutionen insgesamt zu schaden.

Gefälschte Audiodokumente könnten zudem dafür eingesetzt werden, Prozesse vor Gericht zu beeinflussen oder in Misskredit zu bringen, heißt es in der Analyse. Letztlich sei so das Justizsystem bedroht.

"Wir haben es mit einer neuen Generation digital manipulierter Medieninhalte zu tun, die seit einigen Jahren immer kostengünstiger und einfacher zu erzeugen sind und vor allem täuschend echt aussehen können", erläutert Mitautorin Jutta Jahnel vom Institut für Technikfolgenabschätzung und Systemanalyse (ITAS) am KIT. Die KI-Methoden im Hintergrund eröffneten prinzipiell auch neue Möglichkeiten für Kunstschaffende, für digitale Visualisierungen in Schulen oder Museen und helfe in der medizinischen Forschung. Letztlich handle es sich aber um eine Technik mit doppeltem Verwendungszweck ("Dual Use"), die entsprechend reguliert werden sollte.

Technische Lösungsansätze reichen den Forschern zufolge nicht aus. Automatische Erkennungssoftware könne prinzipiell zwar auf einer Kombination erkennbarer Hinweise beruhen wie Sprecher- und Gesichtserkennung, die Analyse der Lebendigkeit der Stimme, zeitlicher Unstimmigkeiten und visueller Artefakte oder das Fehlen authentischer Indikatoren. Die Leistung einschlägiger Algorithmen werde aber oft anhand eines gemeinsamen Datensatzes mit bekannten gefälschten Videos gemessen. Schon einfache Änderungen in der Deepfake-Produktionstechnik könnten die Zuverlässigkeit von Detektoren drastisch verringern. Auch hohe Kompressionsraten für die Verbreitung einschlägigen Materials etwa über soziale Medien erschwerten ihnen die Arbeit.

Die geplanten EU-Regeln für KI bieten laut dem Team eine Option, einige der aufgezeichneten Risiken zu reduzieren. Deepfakes würden im Vorschlag der EU-Kommission zwar ausdrücklich erfasst und müssten bestimmte Mindestanforderungen erfüllen, also etwa gekennzeichnet werden. Sie fielen aber nicht in die Hochrisiko-Kategorie. Es bleibe daher noch unklar, ob sie verboten werden sollten.

Die Forscher appellieren zudem an die EU-Gesetzgeber, bei der Verbreitung von Deepfakes und so bei Facebook, Twitter, YouTube & Co. sowie bei Medienkonzernen anzusetzen. Sie könnten etwa über den Digital Services Act (DSA) verpflichtet werden, Erkennungsfilter einzusetzen und die Distribution entsprechender Darstellungen zu drosseln. Entscheidend sei letztlich die "Publikumsdimension". Helfen könnten hier die Kennzeichnung vertrauenswürdiger Quellen sowie die verstärkte Förderung von Medienkompetenz.

"Audiografischen Belegen muss mit größerer Skepsis begegnet werden und sie müssen höheren Standards genügen", lautet das Fazit der Forscher. Individuen und Institutionen "werden neue Fähigkeiten und Verfahren entwickeln müssen, um ein vertrauenswürdiges Bild der Realität zu konstruieren, da sie unweigerlich mit trügerischen Informationen konfrontiert werden".

(olb)