Menü

Missing Link: Street View verrät Wahlverhalten oder Datenschutz mit KI aushebeln

Zeigen, was möglich ist

Inhaltsverzeichnis

Kosinski und sein Kollege halten Lesern nun nachdrücklich vor Augen, dass der Homo-Scanner anhand von öffentlich verfügbaren Gesichtsfotos aus sozialen Netzwerken und anderen Online-Foren sowie der zunehmenden Videoüberwachung oder staatlichen Biometrie-Datenbanken mit nicht einmal maßgefertigten Werkzeugen einfach nachgebaut werden könne. "Wir haben kein Tool entwickelt, das in die Privatsphäre eindringt", verteidigen beide ihre Arbeit. Vielmehr hätten sie gezeigt, dass weit verfügbare und von Regierungen eventuell schon verwendete Methoden gravierende Bedrohungen für den Datenschutz darstellten. Die Sicherheit der LGBTQ-Community und anderer Minderheiten hänge damit vor allem von der gesellschaftlichen Toleranz ab. Die "Postprivacy-World" werde nur dann angenehm, wenn sie von Menschen bevölkert sei, die allen Artgenossen gleiche Rechte zusprächen.

Die Frage, wie viel Humbug und fehlgeleitete Annahmen in solchen Forschungen stecken, stellt sich auch bei der Big-Data-Firma Cambridge Analytica, die angeblich ebenfalls mit der Ocean-Methode sowie Online-Umfragen arbeitet und sich bei Konsinski einiges für ihr Politmarketing abgeschaut haben dürfte. Die Briten werben damit, beispielsweise die Persönlichkeit aller 190 Millionen in den USA registrierten Wähler psychometrisch erfasst und mit psychologisch gezielten Anzeigen in sozialen Netzwerken im Wahlkampf im Herbst 2016 den Urnengang zugunsten von Donald Trump mit entschieden zu haben. Sie wollten unter anderem herausgefunden haben, dass Anhänger des Immobilienmoguls US-amerikanische Automarken bevorzugen, womit sich der Kreis zur Street-View-Studie schließt.

Berichten zufolge wäscht Cambridge Analytica aber auch nur mit Wasser. So sollen die Marketingexperten vor Trump seinen republikanischen Vorrundengegner Ted Cruz betreut, dabei aber auf die Nase geflogen sein. Dessen Team habe die Kooperation gestoppt, nachdem es die Datenanalyse der Briten als äußerst unzuverlässig empfunden habe. Im Trump-Wahlkampf sollen die gezeigten Modelle des Unternehmens schlechter funktioniert haben als die bereits bei den Republikanern etablierten. Ob und inwiefern Cambridge Analytica im Vorfeld des Brexit-Referendums Meinungsmache betrieb, untersuchen derzeit die britischen Behörden.

Künstlich generierte Gesichtsbilder der aktuellen Generation und ihre Vorgänger

(Bild: Karras et.al.)

Die in politischen Auseinandersetzungen generell großen Raum einnehmenden Falsch- oder Propagandameldungen alias "Fake News" könnten Computer künftig verstärkt selbst generieren und visuell untermauern. So haben Forscher des Grafikkartenriesen Nvidia in einem Labor in Finnland laut einem jüngst publizierten Aufsatz ein KI-System entwickelt, das tausende Schnappschüsse von Prominenten analysieren, in deren Gesichtszügen gemeinsame Züge ausmachen und selbst Bilder erstellen kann, die den bekannten Persönlichkeiten ähnlich sehen. Die Kreationen bleiben aber eigenständig, zeigen keine direkten Doppelgänger. Auch die Komposition realistischer Bilder von Pferden, Autos, Fahrrädern, Pflanzen oder anderen allgemeinen Objekten stellt für die Software kein Problem mehr dar.

Die Wissenschaftler haben dazu nicht nur ein künstliches neuronales Netzwerk eingesetzt, sondern als Gegen- oder Mitspieler ein zweites. Während das eine Bilder generiert, versucht das andere auszuloten, ob diese nach einem Original oder einer Fälschung aussehen. So entstehen vergleichsweise scharfe Gesichtsdarstellungen mit überzeugender Detail- und Kontrasttiefe. Die Methode ist als Generative Adversarial Networks (GANs) bekannt, die sich der Google-KI-Experte Ian Goodfellow 2014 zu seiner Zeit als Doktorand an der Universität Montreal ausdachte. Ein System versucht dabei programmgemäß, dem anderen eins auszuwischen, während das andere sich möglichst nicht übertölpeln lassen soll.

"Der Computer lernt, diese Bilder zu generieren, indem er 'Katz und Maus' mit sich selbst spielt", erläuterte der Nvidia-Forscher Jaakko Lehtinen gegenüber der New York Times. Ein weiteres Team in dem Labor habe ein vergleichbares System gebaut, das eine sommerliche Straßenszene automatisch in eine winterlich anmutende umwandeln könne. Kalifornische Forscher hätten dem Rechner beigebracht, Pferde in Zebras und Monets in Van Goghs umzugestalten. Die Google-Tochter DeepMind arbeite an einer Technik, mit der auf vergleichbare Weise Videos entstehen könnten.

3D-Bilder, die in Filmen und Computerspielen einsetzbar seien, und Virtual-Reality-Szenen hält Lehtinen für den absehbaren nächsten Schritt. Kein Wunder, dass dies auch Kritiker auf den Plan ruft. Derlei Verfahren könnten an einen Punkt gelangen, "an dem es sehr schwierig wird, Wahrheit von Falschheit zu unterscheiden", befürchtet Tim Hwang, der den Ethics and Governance of Artificial Intelligence Fund in Boston leitet. Dies dürfte Probleme mit "Fake Media" und fabrizierten Bilderwelten deutlich verstärken. (mho)