Menü

HAI 2018: Roboteraugen sehen dich an

Auf der International Conference on Human-Agent Interaction wurde darüber beraten, wie sich Mensch und Maschine in die Augen schauen können.

Von
vorlesen Drucken Kommentare lesen 3 Beiträge
HAI 2018: Roboteraugen sehen dich an

Bei Experimenten mit OmniGaze gaben einige Teilnehmer zu bedenken, dass die LEDs, die die aktuelle Blickrichtung anzeigen sollen, kaum gegen den Eindruck ankommen, dass der Roboter selbst wie ein Auge aussieht — mit der Kamera als Pupille.

(Bild: University of Tokyo)

Schau mich an, wenn ich mir dir rede – die meisten Menschen dürften diese Aufforderung irgendwann in ihrem Leben mal gehört haben. Schon in früher Kindheit lernen wir, den Blickkontakt mit einem Gesprächspartner zu halten. Das ist nicht nur ein Gebot der Höflichkeit: Schließlich ermöglicht es die Beobachtung des anderen, auch nichtverbale Signale wahrzunehmen. Dazu sollen künftig auch Roboter und andere künstliche Agenten in der Lage sein.

Als "Fenster zur Seele" habe der Psychologe Simon Baron-Cohen einst die Augen bezeichnet, erinnerte Ouriel Grynszpan von der Sorbonne Université auf der International Conference on Human-Agent Interaction (HAI) in Southampton. Diese Metapher wollte er ernst nehmen und ging in einer Studie der Frage nach, ob sich aus den Augenbewegungen Rückschlüsse auf die Persönlichkeit eines Gesprächspartners ziehen lassen. Dafür führte er ein Experiment durch, bei dem die Versuchsteilnehmer mit Avataren konfrontiert wurden, die stärkeren oder schwächeren Blickkontakt herstellten, ihn vermieden oder der Blickrichtung des Menschen folgten.

Siehe dazu auch:

Persönlichkeitstypen

Die Frage war, ob sich die virtuellen Agenten aufgrund dieser Unterschiede verschiedenen Persönlichkeitstypen entsprechend dem Fünf-Faktoren-Modell zuordnen ließen, laut dem es folgende Hauptdimensionen gibt: Offenheit, Gewissenhaftigkeit, Extraversion, Verträglichkeit und Neurotizismus. Die Unterschiede seien messbar gewesen, aber nicht so deutlich wie erwartet, sagte Grynszpan. Zudem ließen sich kulturelle und andere Einflüsse nicht ausschließen. So sei der weibliche Avatar im Vergleich zum männlichen von den Versuchsteilnehmern als emotional weniger stabil wahrgenommen worden, was aber nicht nur mit dessen Blicken, sondern auch mit der übrigen Gestalt zusammenhängen könne. Um hier zu mehr Klarheit zu kommen, seien weitere Experimente mit einer größeren Vielfalt von Avataren nötig.

Mit kulturellen Unterschieden im Blickverhalten beschäftigt sich Tomoko Koda am Osaka Institute of Technology. Welche Art von Augenkontakt als angenehm empfunden wird, hänge sehr stark von der kulturellen Herkunft ab, sagte sie. So hätten empirische Studien etwa gezeigt, dass Schweden ihre Gesprächspartner während 50 Prozent der Zeit anschauen, Engländer dagegen nur 38 Prozent.

Für ihre Studie, die ebenfalls mit virtuellen Gesprächspartnern arbeitet, unterschied Koda zwischen japanischem und US-amerikanischem Muster und führte als Kontrollgruppe außerdem einen Avatar ein, der ununterbrochen Blickkontakt aufrechterhielt. Aufbauend auf früheren Experimenten, bei denen sie nur mit einem männlichen Avatar gearbeitet hatte, ging es ihr diesmal darum, auch die Unterschiede zwischen den Geschlechtern zu erfassen. Generell schauten sich Frauen mehr an als Männer und Amerikaner mehr als Japaner, sagte sie. Außerdem richteten Männer häufiger den Blick auf weibliche Gesprächspartner als umgekehrt.

Hat weder Augen noch freundliches Lächeln: Der hüpfende Roboter Atlas. (Quelle: BostonDynamics)

Diffuse Präferenzen

Die Ergebnisse von Kodas Studie, die aus dieser Vielzahl unterschiedlicher Kombinationen von Blickverhalten und Geschlechtern bei menschlichen Teilnehmern und Agenten hervorgingen, ließen sich kaum auf einen Nenner bringen. Die Forscherin selbst sprach von "unausgeglichenen Präferenzen" im Blickverhalten. So hätten Teilnehmerinnen des Experiments bei weiblichen Avataren das amerikanische Blickmuster bevorzugt, nicht aber bei männlichen.

Auch Koda betonte die Notwendigkeit weiterer Experimente, bei denen kulturelle Unterschiede wie auch verschiedene Persönlichkeitstypen stärker berücksichtigt werden müssten. Das zeigte sich schon in der Diskussion ihres Vortrags: Auf die Frage, warum sie mit animierten, im Mangastil gestalteten Avataren mit großen Augen gearbeitet habe, sagte sie, dass die japanischen Versuchsteilnehmer von realistischeren Figuren abgeschreckt worden seien.

Ganz ohne menschenähnliche Agenten kommt die Lösung aus, an der Keisuke Shiro an der University of Tokyo arbeitet. Er will für einen Telepräsenzroboter OmniGaze 360-Grad-Kameras nutzen, die ständig ihre gesamte Umgebung im Blick haben. Für den Bediener des Roboters, der ihn aus der Ferne steuert, hat das den Vorteil, dass er die Blickrichtung beliebig ändern kann, ohne dafür den Roboter oder dessen Kamera bewegen zu müssen. Um den Gesprächspartnern, die dem Roboter vor Ort gegenüberstehen, trotzdem die aktuelle Blickrichtung anzeigen zu können, ist der kugelförmige Roboter rundum mit LEDs bestückt, die dort aufleuchten, wohin der Operator gerade schaut.

Partnerschaft Mensch-Maschine?

Allerdings ist das Design noch nicht ganz ausgereift: In seiner gegenwärtigen Gestalt erinnert der Roboter mit der nach vorn gerichteten dunklen Kameralinse selbst an ein menschliches Auge, sodass die an verschiedenen Stellen blinkenden Lichter kaum gegen den Eindruck ankommen, dass er ständig nur in eine Richtung zu schauen scheint. Eine Lösung könne darin bestehen, die Kamera nach oben zu richten und sie kleiner und unauffälliger zu gestalten.

Zum Auftakt des dritten Konferenztages hatte Nick Jennings (Imperial College London) in einem Grundsatzvortrag zuvor die Partnerschaft zwischen menschlicher und künstlicher Intelligenz (KI) hochgehalten. Es gehe darum, dass sich Menschen und Maschinen mit ihren jeweiligen Stärken und Schwächen gegenseitig ergänzten. Eine solche Zusammenarbeit könne beide voranbringen. Aber um das hinzukriegen, müssen sie offenbar erst einmal lernen, sich tief in die Augen zu sehen. (anw)

Anzeige
Anzeige