Menü

Missing Link: Street View verrät Wahlverhalten oder Datenschutz mit KI aushebeln

Datenschutz als Auslaufmodell

Inhaltsverzeichnis

Für ein Auslaufmodell hält Michael Kosinski den Datenschutz, der an der "Graduate School of Business" der Stanford University lehrt. Der Experte für Computerpsychologie gilt als Meister auf dem Gebiet der Psychometrik, einem Teil der Psychologie, der sich unter anderem mit Big Data und KI beschäftigt und die menschliche Persönlichkeit auszumessen sucht. Als Student an der Universität Cambridge in Englang tüftelte der gebürtige Pole ein mathematisches Verfahren aus, mit dem sich anhand von Facebook-Likes und anderen öffentlich zugänglichen Daten der Charakter eines Menschen bestimmen und sein Verhalten voraussagen lassen können soll.

Für seine kontroversen Untersuchungen greift Kosinski auf das in den 1980ern entwickelte Ocean-Modell zurück. Die Kategorisierung basiert auf den sogenannten Big-Five-Faktoren, die sich in der Psychologie als Persönlichkeitsmerkmale bewährt haben: Offenheit, Gewissenhaftigkeit, Extraversion, Verträglichkeit und Neurotizismus. In Cambridge kreierte der Doktorand zusammen mit einem Kollegen die App "MyPersonylity" für Facbook mit dem sich anhand weniger Fragen ein Persönlichkeitstest auf der Ocean-Basis durchführen ließ. Zur Überraschung der Erfinder machten in recht kurzer Zeit Millionen Nutzer mit, sodass das Duo bald auf einem großen psychologischen Datenschatz saß und mehr oder weniger gewagte Schlüsse daraus ableitete. Einer davon: Männer, die auf Facebook ein Faible für die Kosmetikmarke Mac kundtun, sollen mit hoher Wahrscheinlichkeit schwul sein.

"Unsere Forschung zeigt, dass die Aufzeichnung digitaler Verhaltensmuster wie zum Beispiel Tweets, Facebook-Likes oder Webbrowser-Protokolle genügt, um ein detailliertes Bild der Persönlichkeit, Intelligenz oder politischen Einstellung zu erlangen" konstatierte Kosinski voriges Jahr vor einem Vortrag auf der CeBIT. Schon 2012 hatte er behauptet, dass 86 Facebook-Likes eines Nutzers ausreichen, um mit Wahrscheinlichkeiten zwischen 95 und 85 Prozent vorauszusagen, ob er weiß oder schwarz, Homo oder Hetero ist und Demokraten oder Republikaner wählt.

Solche Big-Data-Analysen erforderten nicht einmal eine aktive Beteiligung der Betroffenen, weiß der Wissenschaftler. "Sie sind auf große Populationen anwendbar, kostengünstig und könnten viele Bereiche revolutionieren", meint er, warnt aber zugleich: "In den falschen Händen stellen diese Methoden erhebliche Risiken für die Privatsphäre dar."

Auf der CeBIT nahm Kosinski seine Untersuchungen gegen den Vorwurf der "Pseudowissenschaft" in Schutz und gab einen Ausblick auf einen im Herbst 2017 erschienenen, besonders umstrittenen Artikel: Der Mensch könne in Sekunden an einem Gesicht dessen Geschlecht erkennen, oft reiche dafür eine Augenbraue, führte er aus. Dahinter stehe eine Art "neuronales Netzwerk" im Gehirn, auch wenn sich dieses im Vergleich zu den immens gesteigerten Computerrechenkräften auf einer "niedrigen Ebene" befinde. Eine Künstliche Intelligenz könne dagegen dank Deep-Learning-Algorithmen noch einfacher am Gesicht allein etwa die Stimmung, die politische Einstellung oder die sexuelle Orientierung eines Menschen erkennen, sobald sie mit Millionen entsprechender Bilder und "Personalitätsscores" gefüttert worden sei. Auch dem Menschen falle es leichter zu sehen, ob jemand extrovertiert sei, wenn man mehrere Gesichtsbilder einer Person übereinanderlege.

Die große Herausforderung dabei sei, merkte Kosinski an: "Wir wissen nicht, wie die Vorhersagen funktionieren." Deep Learning finde hier ein einer Blackbox statt, sodass es der Mensch nicht mehr vollständig nachvollziehen könne. Zugleich prognostizierte er: "Es wird sehr schwer werden, unsere Privatsphäre aufrechtzuerhalten." Wer seine Daten nicht teile, sei aber "egoistisch". Google etwa verbessere damit ja auch das Nutzererlebnis für Dritte. Vor allem im Gesundheitswesen sei eine Datenabgabe wichtig für einschlägige Prognosen.

Zudem gibt es laut dem Befürworter einer "transparenten Gesellschaft" ein natürliches Mitteilungsbedürfnis beim Homo Socialis: "Wir wollen von uns aus viele Informationen mit Dritten teilen." Es müsse aber anhand sozialer und politischer Regeln sichergestellt sein, dass solche Preisgaben nicht zu einer "Sache von Leben oder Tod" für die Betroffenen führten.

Anfang September sorgte Kosinski dann für Schlagzeilen weltweit, als sein Aufsatz zur Fähigkeit von "Deep Neural Networks" zur Erkennungsmöglichkeit der sexuellen Orientierung von Menschen anhand von Gesichtsbildern als Vorabdruck online erschien. Der Economist titelte: "Es gibt kein Versteck mehr: Was Maschinen aus Ihrem Gesicht ablesen können." Mithilfe des psychometrischen Netzwerks VGG-Face lässt sich demnach mit einer Trefferquote von 81 Prozent anhand eines einzelnen Fotos einer Person sagen, ob der abgebildete Mann voraussichtlich schwul oder heterosexuell ist. Bei fünf Gesichtsbildern stieg die Rate auf 91 Prozent.

Angeblich "typische Gesichter" von Homosexuellen

(Bild: Wang, Y., & Kosinski, M.)

Dass Frauen lesbisch seien, glaubte die Software zu 71 beziehungsweise 83 Prozent bestimmen zu können. Menschen erraten die sexuelle Orientierung von Männern in 61Prozent, die von Frauen in 54 Prozent der Fälle richtig; aber auch die maschinelle Fehlerquote von knapp zehn bis 30 Prozent würde hierzulande zu einer möglichen Diskriminierung von Millionen Personen führen. Bei einem Vergleichstest mit Bildern von Facebook lag die Trefferquote zudem durchschnittlich nur bei 74 Prozent.

Das künstliche neuronale Netzwerk hatten Kosinski und sei Kollege Yilun Wang mit einem Set von über 300.000 Gesichtsbildern von mehr als 36.000 Männern und 38.000 Frauen im Alter zwischen 18 und 50 Jahren aus Online-Partnerbörsen gespeist und mit einer Auswahl von 35.326 Aufnahmen von 14.776 Personen trainiert. Die KI sollte dabei lernen, anhand von 4000 Punkten und feinsten Unterschieden darin festzustellen, zu welchem Geschlecht sich Betroffene hingezogen fühlen.

Ausgangsthese war auf Basis der pränatalen Hormontheorie (PHT), dass eine gleichgeschlechtliche Ausrichtung entsteht, wenn männliche Embryonen im Mutterleib zu wenigen und weibliche zu vielen Androgenen ausgesetzt sind. Schwulen sollen demnach etwa kleinere Kiefer und Kinne, dafür aber eine längere Nase und eine größere Stirn haben, während auf Lesben das Gegenteil zutreffe. Bei homosexuellen Männern sei auch oft ein verringerter Bartwuchs festzustellen. Dazu kämen kulturelle Erkennungsfaktoren wie eine Vorliebe für oder Abneigung gegen Schminke.

Die fragliche moderne Form der ursprünglich im 19. Jahrhundert entwickelten Phrenologie, wonach die Schädelform wichtige Hinweise auf den Charakter und die Intelligenz eines Menschen gibt, und der später daraus abgeleiteten "Rassenlehre" hatte zuvor auch schon das israelische Startup Faception auf die biometrische Gesichtserkennung zu übertragen versucht. Die Firma behauptet, dass ihre Software anhand von Porträts feststellen kann, ob ein Mensch etwa generell zu Gewalttaten oder speziell zu Pädophilie oder Terrorismus neigt oder dem Glücksspiel frönt.