Computer täuschen mit Lächeln

Wer ein freundliches Gesicht macht, muss zufrieden sein. Davon gehen die meisten Systeme zur Emotionserkennung aus. Doch zur Bestimmung von Gefühlen ist der Gesichtsausdruck bei weitem nicht genug.

Lesezeit: 3 Min.
In Pocket speichern
vorlesen Druckansicht Kommentare lesen

(Bild: Unsplash / Belinda Fewings)

Von

Wenn wir herausfinden wollen, wie ein anderer Mensch sich fühlt, nutzen wir viele verschiedene Informationen: Gesichtsausdruck, Körpersprache, Umfeld und mehr. Computer dagegen konzentrieren sich dabei fast nur auf das Gesicht. Das ist eine erhebliche Schwäche: Laut einer wichtigen neuen Studie bedeutet es, dass die meisten Behauptungen von Unternehmen im Bereich „Emotionserkennung“ falsch sind.

Die Nutzung von Technologie zur Analyse von Gesichtsausdrücken mit Rückschlüssen auf Gefühle ist nach einer Schätzung inzwischen ein Geschäft mit 20 Milliarden Dollar Umsatz. Riesige Unternehmen wie Microsoft und Apple sowie spezialisierte Start-ups wie Kairos und Affectiva beteiligen sich daran.

Meist wird Technologie zur Emotionserkennung zum Verkauf von Produkten eingesetzt, neuerdings aber auch bei der Bewerber-Auswahl und als mögliches Werkzeug zur Aufdeckung von Versicherungsbetrug. Und schon 2003 hat die Transporttation Security Administration der USA damit begonnen, Mitarbeiter in der Erkennung von potenziellen Terroristen durch das Lesen ihres Gesichtsausdrucks zu schulen.

Seit einigen Jahren allerdings gibt es zunehmende Zweifel an der Annahme, Gefühle seien anhand von Gesichtsausdrücken leicht zu erkennen. Eine Gruppe von Wissenschaftlern hat jetzt zwei Jahre lang mehr als 1000 Fachaufsätze über Emotionserkennung analysiert. Der Schwerpunkt dabei lag auf der Frage, wie Menschen ihre Gesichter verändern, wenn sie bestimmte Emotionen fühlen, und wie sie auf Grundlage von deren Gesichtern auf den Gefühlszustand anderer Personen schließen. Wie sich zeigte, lässt sich allein anhand von Gesichtsausdrücken kaum korrekt erkennen, wie sich jemand fühlt.

Menschen lächeln, wenn sie glücklich sind, und runzeln die Stirn, wenn sie traurig sind. Doch diese Korrelation ist schwach, sagt Lisa Feldman Barrett, Psychologin an der Northeastern University und Co-Autorin der Studie. Menschen machen noch vieles andere, wenn sie glücklich oder traurig sind, und ein Lächeln kann ironisch oder gemein sein.

Die Verhaltensweisen sind je nach Kultur und Situation sehr unterschiedlich, und der Kontext spielt eine große Rolle dafür, wie wir Ausdrücke deuten. So wurde ein positives Gesicht als stärker negativ wahrgenommen, wenn es auf einen Körper in einer ungünstigen Situation montiert war.

Kurz gesagt: Die Ausdrücke, die wir gewohnheitsmäßig mit Emotionen assoziieren, sind Stereotype, und Technologie auf Grundlage dieser Stereotype liefert keine sehr guten Informationen. Funktionierende Emotionserkennung ist teuer und erfordert das Einsammeln von vielen extrem spezifischen Daten – laut Barrett mehr, als irgendjemand bislang berücksichtigt hat.

Die meisten der Unternehmen, die ich um Stellungsnahmen für diesen Artikel bat, reagierten nicht darauf, einschließlich Apple und Microsoft. Geantwortet hat Kairos, ein Unternehmen, das Einzelhändlern verspricht, mit Hilfe von Technologie zur Emotionserkennung die Gefühle ihrer Kunden herauszufinden. Die Gesichter von Kunden werden dazu gescannt und auf hochgezogene Augenbrauen oder Lächeln hin analysiert, um zu erkennen, ob sie froh oder traurig sind. Für Geschäfte mit echten Filialen seien solche Informationen sonst schwer zu bekommen, sagt CEO Melissa Doval.

Zur Schulung seiner Technologie ließ Kairos Menschen emotionale Videos ansehen und scannte dabei ihre Gesichter. Weitere Daten kamen von gestellten Ausdrücken. Eine Person im Unternehmen hat die Aufgabe, diese Daten zur Einspeisung in den Algorithmus auszuzeichnen.

Dies ist ein extrem verbreiteter Ansatz, doch laut der neuen Studie hat er zwei Schwächen. Die erste liegt in den gestellten Gesichtern. Wenn man gezielt überrascht schauen soll, sieht das vielleicht ganz anders aus, als wenn man wirklich überrascht ist. Das zweite Problem liegt darin, dass dritte Personen die Daten durchgehen und auszeichnen. Ein Beobachter könnte einen Gesichtsausdruck als „überrascht“ verstehen, aber ohne die Person dahinter zu befragen, kann man kaum wissen, was die wahre Emotion war.

Das Ergebnis ist Technologie mit relativ rudimentären Fähigkeiten. Kairos konzentriert sich laut CEO Doval derzeit darauf, seine Kamera und sein Kontrollzentrum zu verbessern, nicht die Erkennungstechnologie selbst.

Irgendwann werde man Forschung wie die von Barrett möglicherweise berücksichtigen, fügt sie hinzu. So könnten für mehr Kontext und höhere Treffgenauigkeit zusätzlich demografische Daten ausgewertet werden.

Auch Barrett hat Vorschläge für bessere Emotionserkennung. Keine Einzelbilder verwenden, sagt sie zum Beispiel – man sollte Personen lieber in mehreren Situationen über eine gewisse Zeit studieren. Viel Kontext sammeln, etwa über Stimme und Haltung, das Geschehen im Umfeld, physiologische Informationen wie Abläufe im Nervensystem – und dann herausfinden, was ein Lächeln bei einer konkreten Person in einer konkreten Situation bedeutet.

Das sollte wiederholt gemacht werden, um mögliche Muster bei Menschen mit ähnlichen Merkmalen wie etwa Geschlecht zu finden.

„Man muss nicht jeden die ganze Zeit analysieren, aber man kann eine große Zahl von Menschen analysieren, die man als Stichproben aus allen Kulturen nimmt“, sagt Barrett. „Ich vermute, dass wir alle ganz natürlich zu diesem Big-Data-Ansatz getrieben werden. Er ist jetzt möglich, während das vor einem Jahrzehnt weitaus schwieriger gewesen wäre.“

(sma)