Deepfakes: Wie eine KI-App Gesichter von Frauen in Pornos einfügt

Eine neu aufgetauchte Deepfakes-Anwendung geht weiter als Revenge-Porn. Selbst wenn die Ergebnisse nicht perfekt sind, sind die Folgen für Frauen verheerend.

Lesezeit: 8 Min.
In Pocket speichern
vorlesen Druckansicht Kommentare lesen 523 Beiträge

(Bild: Photo by Ava Sol / Unsplash)

Von
  • Karen Hao

Die Website besticht durch ihre Schlichtheit: Ein weißer Hintergrund, darauf ein großer blauer Knopf, mit dem der User das Bild eines Gesichts hochladen kann. Unter dem Knopf bieten vier KI-generierte Gesichter die Möglichkeit, den Dienst zu testen. Darüber die Schlagzeile: "Verwandle jeden in einen Pornostar, indem du mit Hilfe der Deepfake-Technologie das Gesicht der Person in ein Erwachsenenvideo einfügst." Erforderlich ist dazu lediglich das Bild und ein Klick auf den Website-Knopf.

MIT Technology Review wird im Weiteren weder den Namen des Dienstes, noch direkte Zitate oder Screenshots verwenden, um nicht für zusätzlichen Traffic auf der Seite zu sorgen. Als Pseudonym für den Dienst verwenden wir in diesem Text den Namen "Y". Entdeckt und darauf aufmerksam gemacht hat uns der Deepfake-Forscher Henry Ajder, der die Entwicklung und den Aufstieg der synthetischen Medien im Internet verfolgt.

Im Moment existiert Y noch relativ unbemerkt, hat aber eine kleine, recht aktive Nutzerbasis, die dem Entwickler in Online-Foren Feedback gibt. Dass eine solche App einmal entwickelt werden würde, hatten Forscher bereits befürchtet. Auf dem Feld der Deepfakes überschreitet diese Anwendung eine ethische Grenze, die noch kein anderer Dienst zuvor überschritten hat.

KI-generierte synthetische Medien, also Deepfakes, wurden stets auch dazu verwendet, pornografische Darstellungen von Frauen zu schaffen. Dass das psychologisch oft schlimme Folgen für die Betroffenen hat, ist nachvollziehbar. Der ursprüngliche Reddit-Erfinder, der die Technologie populär machte, tauschte die Gesichter von weiblichen Prominenten in Pornovideos aus. Das Forschungsunternehmen Sensity AI schätzt, dass bis heute zwischen 90 und 95 Prozent aller Deepfake-Videos im Internet nicht einvernehmliche Pornos sind. In etwa 90 Prozent dieser Videos sind Frauen zu sehen.

Mit der Weiterentwicklung der Technologie sind auch zahlreiche einfach zu bedienende No-Code-Tools aufgetaucht, mit denen die Nutzer die weiblichen Körper in den Bildern "entkleiden" können. Viele dieser Dienste wurden inzwischen vom Netz genommen, aber der Code existiert noch immer in Open-Source-Repositories und taucht immer wieder in neuen Formen auf. Über 6,7 Millionen Besuche gab es auf der jüngsten dieser Seiten, die die Forscherin Genevieve Oh entdeckt hat. Sie ist noch nicht vom Netz genommen worden.

Es gab bereits andere Einzelbild-Gesichtstausch-Apps wie ZAO oder ReFace, die Nutzer in ausgewählte Szenen aus Mainstream-Filmen oder Pop-Videos versetzen. Und eine App namens "DeepNude" nutzte Bilder von Frauen, um diese virtuell "auszuziehen", also die Kleidung der Frau auf dem Bild durch einen computergenerierten nackten Körper auszutauschen. Die pornografische Face-Swapping-App Y geht nun ein Stück weiter. Sie ist "maßgeschneidert", um pornografische Bilder von Menschen ohne deren Zustimmung zu erstellen, sagt Adam Dodge, der Gründer von EndTAB, einer gemeinnützigen Organisation, die Menschen über technologiegestützten Missbrauch aufklärt. Das macht es den Machern leichter, die Technologie für diesen speziellen Anwendungsfall zu verbessern und lockt Leute an, die sonst nicht auf die Idee gekommen wären, Deepfake-Pornos zu erstellen. "Jedes Mal, wenn man sich auf diese Weise spezialisiert, entsteht eine neue Ecke des Internets, die neue Nutzer anzieht", sagt Dodge.

Y ist sehr einfach zu bedienen. Sobald ein Nutzer ein Foto von einem Gesicht hochlädt, öffnet die Seite eine Bibliothek mit Pornovideos. In der überwiegenden Mehrheit sind Frauen zu sehen, in einer kleinen Handvoll aber auch Männer, meist in Schwulenpornos. Der Nutzer kann dann ein beliebiges Video auswählen. Innerhalb von Sekunden ist eine Vorschau des Ergebnisses zu sehen. Für den Download der Vollversion muss der Nutzer zahlen.

Die Ergebnisse sind alles andere als perfekt. Viele der ausgetauschten Gesichter sind offensichtlich gefälscht, da die Gesichter schimmern und sich verzerren, wenn sie aus verschiedenen Winkeln gedreht werden. Für einen zufälligen Betrachter sind einige jedoch subtil genug, um sie zu übersehen, und die Entwicklung der Deepfakes hat bereits gezeigt, wie schnell sie von der Realität nicht mehr zu unterscheiden sind. Einige Experten sind der Meinung, dass die Qualität des Deepfakes keine Rolle spielt, da der psychologische Schaden für die Opfer in beiden Fällen derselbe sein kann. Außerdem wissen viele Menschen noch nicht, dass es diese Technologie gibt, sodass selbst qualitativ minderwertige Montagen die Menschen täuschen können.

Y stellt sich selbst als sicheres und verantwortungsbewusstes Instrument dar, um sexuelle Fantasien zu erkunden. Die Sprache auf der Website ermutigt die Nutzer angeblich dazu, ihr eigenes Gesicht hochzuladen. Doch nichts hindert sie daran, die Bilder anderer hochzuladen. Kommentare in Online-Foren lassen vermuten, dass die Nutzer genau das bereits getan haben.

Die Folgen für Frauen und Mädchen, die zur Zielscheibe solcher Aktivitäten werden, können verheerend sein. Auf psychologischer Ebene können sich diese Videos genauso verletzend anfühlen wie die sogenannten Rache-Pornos – also echte intime Videos, die ohne Zustimmung gefilmt oder veröffentlicht werden. "Diese Art von Missbrauch – wenn Menschen deine Identität, deinen Namen und deinen Ruf falsch darstellen und auf so verletzende Weise verändern – erschüttert dich bis ins Mark", sagt Noelle Martin, eine australische Aktivistin, die von einer Deepfake-Porno-Kampagne betroffen war.

Die Auswirkungen können die Opfer ein Leben lang begleiten. Die Bilder und Videos sind nur schwer aus dem Internet zu entfernen, und es kann jederzeit neues Material erstellt werden. "Es wirkt sich auf die zwischenmenschlichen Beziehungen aus; es wirkt sich auf die Jobsuche aus. Bei jedem einzelnen Vorstellungsgespräch, zu dem Sie gehen, könnte dies zur Sprache gebracht werden. Potenzielle Liebesbeziehungen", sagt Martin. "Bis zum heutigen Tag ist es mir nie gelungen, die Bilder vollständig zu entfernen. Das wird für immer da draußen sein. Egal, was ich tue."

Nicht einvernehmliche Deepfake-Pornos können auch wirtschaftliche und berufliche Folgen haben. Rana Ayyub, eine indische Journalistin, die Opfer einer Deepfake-Porno-Kampagne wurde, wurde in der Folgezeit online so stark belästigt, dass sie ihre Web-Präsenz und damit das öffentliche Profil, das sie für ihre Arbeit benötigt, minimieren musste.

Die von der britischen Regierung finanzierte Revenge Porn Helpline erhielt kürzlich den Fall einer Lehrerin, die ihren Job verlor, nachdem gefälschte pornografische Bilder von ihr in den sozialen Medien kursierten und der Schule zur Kenntnis gebracht wurden, sagt Sophie Mortimer, die den Dienst leitet. "Es wird immer schlimmer, nicht besser", sagt Dodge. "Immer mehr Frauen werden auf diese Weise angegriffen."

Mehr von MIT Technology Review Mehr von MIT Technology Review

Die Möglichkeit von Y, Deepfake-Schwulenpornos zu erstellen, ist zwar begrenzt, stellt aber eine zusätzliche Bedrohung für Männer in Ländern dar, in denen Homosexualität kriminalisiert wird, sagt Deepfake-Forscher Ajder. Dies ist in 71 Ländern weltweit der Fall, von denen elf die sexuelle Orientierung mit dem Tod bestrafen.

Ajder hat in den vergangenen Jahren zahlreiche Deepfake-Porno-Apps entdeckt. Er habe versucht, den Hosting-Dienst von Y zu kontaktieren und ihn zum Abschalten zu zwingen. Doch der Forscher ist pessimistisch, was die Entwicklung ähnlicher Tools angeht. Es ist bereits eine weitere Website aufgetaucht, die das Gleiche zu versuchen scheint. Seiner Meinung nach wäre es eine nachhaltigere Lösung, solche Inhalte von Social-Media-Plattformen zu verbannen und vielleicht sogar ihre Erstellung oder ihren Konsum zu verbieten. "Das bedeutet, dass diese Websites genauso behandelt werden wie das Material im Dark Web", sagt er. "Selbst wenn es in den Untergrund getrieben wird, wird es zumindest aus den Augen der 'normalen' Menschen verschwinden."

Lesen Sie auch

Y reagierte nicht auf mehrere Bitten um eine Stellungnahme unter der auf der Website angegebenen Presse-E-Mail. Die mit der Domäne verbundenen Registrierungsinformationen werden auch von dem Datenschutzdienst Withheld for Privacy blockiert. Am 17. August, nachdem MIT Technology Review einen dritten Versuch unternommen hatte, den Entwickler zu erreichen, veröffentlichte die Website den Hinweis auf ihrer Homepage, dass sie für neue Benutzer nicht mehr verfügbar sei. Am 12. September war dieser Hinweis immer noch online. (jle)