zurück zum Artikel

"Im wesentlichen ein Problem der Psychologie"

Infotech
"Im wesentlichen ein Problem der Psychologie"

Bild: kodomut/Flickr (cc-by-2.0)

Nicole Krämer, Professorin für Sozialpsychologie, forscht zu nonverbalem Verhalten von virtuellen Agenten.

Seit rund 15 Jahren versuchen Wissenschaftler weltweit im Rahmen des "Affective Computing" so unscharfe Dinge wie menschliche Gefühle zum Gegenstand der Informatik zu machen. Krämer, Professorin für Sozialpsychologie an der Universität Duisburg-Essen, beschäftigt sich in ihrer Arbeit mit dem nonverbalen Verhalten von virtuellen Agenten. Im Interview spricht sie über die Messbarkeit von Gefühlen und die schwierige Gratwanderung zwischen wissenschaftlicher Genauigkeit und brauchbaren Anwendungen. Technology Review beschäftigt sich auch in seiner aktuellen Print-Ausgabe [1] 11/10 mit dem Thema Computer und Emotionen: "Maschinen, die Gefühle zeigen" heißt der Titel.

Technology Review: Frau Krämer, wie kommen Sie als Psychologin dazu, sich mit Maschinen statt mit Menschen zu beschäftigen?

Nicole Krämer: Es gibt eine Menge Informatiker, die sich mit virtuellen Agenten beschäftigen und versuchen, die Kommunikation dieser Agenten mit Menschen zu verbessern. Eine Möglichkeit das zu tun besteht darin, Emotionen zu modellieren. In einigen Fällen gelingt das sehr gut, in anderen ist es nicht so gut gelungen – das war für mich der Aufhänger. Denn es ist ja nicht nur die Aufgabe der Psychologie, solche Agenten zu evaluieren, sondern auch psychologisches Know-how bereitzustellen.

Ich habe dann 2003 ein Paper geschrieben, in dem ich argumentiert habe, Emotionen zu modellieren, sei nicht unbedingt sinnvoll. Das eigentliche Ziel dieser Agenten ist ja, die Interaktion mit dem Menschen zu erleichtern, und es ist überhaupt nicht gesichert, dass implementierte Emotionen dabei einen Vorteil bringen. Stattdessen sollte man meiner Meinung nach das Konzept der "Theory of Mind" zu implementieren.

TR: Was bedeutet das?

Krämer: Das Konzept wird insbesondere in der Robotik angewandt. Es besagt im Wesentlichen, dass jeder Mensch in der Lage ist, die Gedanken und Gefühle eines anderen Menschen in begrenztem Umfang nachzuvollziehen. Wenn ich also jemanden sehe, der in ein Zimmer geht, dort eine Minute herumläuft und dann wieder raus geht, kann ich erschließen, dass dieser Mensch wahrscheinlich etwas gesucht hat, es nicht gefunden hat und jetzt an einer anderen Stelle weiter sucht. Das machen wir, indem wir auf eigenen Erfahrungen aufbauen, und dann extrapolieren, was in dem anderen vorgehen könnte.

Diese Fähigkeit hat ein Agent allerdings nicht, weil er keinen Schimmer davon hat, was in dem Menschen, mit dem er da redet, eigentlich vorgeht. Er kann also beispielsweise nicht einschätzen, dass ein Mensch es komisch findet, auf eine gestellte Frage nicht sofort eine Antwort zu bekommen. Das ist aus meiner Sicht ein Aspekt, der eher als Emotion implementiert werden sollte.

TR: Nun habe ich bisher gedacht, genau das sollten Emotionsmodelle unter anderem leisten: Dem Agenten Aufschluss darüber zu verschaffen, wie es dem User gerade geht.

Krämer: Das wäre ja durchaus sinnvoll, wird aber meist nicht gemacht. Da geht es nur darum, dass der Agent eine größere Glaubwürdigkeit bekommt.

TR: Wenn es darum geht, Emotionen von Usern zu erkennen, funktioniert das System der Basis-Emotionen doch aber schon recht gut, oder?

Krämer: Ja, aber die Frage ist doch: Ist das wirklich so, dass Menschen immer eindeutig zu kategorisierende Emotionen zeigen? Das Facial Action Coding-System ist natürlich darauf ausgerichtet, ein direktes Mapping auf Emotionen zu machen. Aber das wird in der Psychologie mehr und mehr hinterfragt. Dem System liegt die Annahme zugrunde, es gäbe einen direkten Zusammenhang zwischen Emotion und Muskel-Enervation im Gesicht: Wenn ich traurig bin, kann ich also nicht anderes, als Muskelgruppe xy zu aktivieren.

Es gibt aber Forscher, die sagen – und dazu gibt es auch Belege –, dass das, was auf unserem Gesicht passiert, nichts mit dem zu tun haben muss, was wir empfinden. Das wäre ja auch evolutionär betrachtet kontraproduktiv, wenn wir alles, was wir an Emotionen haben, auf unserem Gesicht zeigen. Sinnvoller wäre es, auf unserem Gesicht zu zeigen, was wir an sozialen Zielen haben. Es ist – um mal ein Beispiel zu nennen – nicht sinnvoll, zu weinen, wenn wir am traurigsten sind. Es ist am sinnvollsten zu weinen, wenn wir jemanden haben wollen, der sich um uns kümmert – ganz unabhängig, wie wir uns dabei fühlen.

Das ist gar nicht böswillig, sondern geschieht oft unwillkürlich. Damit wäre aber die unmittelbare Verbindung zwischen Emotion und nonverbalem Verhalten, die beispielsweise Paul Ekman annimmt, dahin. Und dann kann man zwar sagen, ok, hier ist Action Unit Nr. Soundso angesprungen, aber das bedeutet nicht unbedingt, dass die Person traurig ist. Man kann aber natürlich immer noch ableiten, dass da jetzt was schief gelaufen ist, und das System muss dementsprechend handeln. Man kann also daraus durchaus Informationen ableiten, nur ob man die als wahre Emotion bezeichnen kann, das würde ich bezweifeln.

TR: Gibt es denn überhaupt eine allgemeingültige Definition von Emotion?

Krämer: Es gibt definitiv etwa hundert verschiedene Definitionen. Es gibt natürlich Dinge, die allgemeingültig sind. Emotionen haben beispielsweise verschiedene Komponenten: Eine Gefühlskomponente, eine physiologische Komponente und eine Verhaltenskomponenten. Aber das ist ja nun wirklich sehr basal.

TR: Kann man Emotionen messen?

Krämer: Ich persönlich würde – auch vor dem Hintergrund des gerade gesagten – sagen, dass man Emotionen aus Gesichtsausdrücken nicht messen kann. Es gibt natürlich noch den Zugang über die Psychophysiologie – Hautleitfähigkeit oder Herzschlag. Das ermöglicht aber nur eine unspezifische Messung von Emotionen. Das heißt, wenn da eine erhöhte Aktivierung ist, weiß man beispielsweise nicht, ob das Ärger oder Freude ist. Und das kann man an den physiologischen Signalen auch nicht sehen. Dann muss man den Menschen fragen, was er erlebt hat.

TR: Ganz kurz zusammengefasst: Die Informatiker stochern im Wesentlichen im Nebel?

Krämer: Ja. Aber das gilt natürlich nicht nur für die Informatiker, sondern auch für die Psychologie. Nur dass die Psychologie nicht das Problem hat, dass sie ihre Modelle implementieren muss. Ich will also den Informatikern hier keine Schuld zuweisen – dass es kaum vernünftigen Modelle und wenige brauchbaren Messzugänge gibt, ist im Wesentlichen erst einmal ein Problem der Psychologie.

TR: Nun könnte man sich ja auf den Standpunkt stellen, dass Modell muss nicht der Wahrheit entsprechen. Hauptsache es funktioniert. Halten Sie das für möglich?

Krämer: Das ist natürlich theoretisch möglich. Tatsächlich gibt es ja einige recht nette Applikationen beispielsweise im Gesundheitsbereich, die zumindest ganz unterhaltsam sind.

Aber die richtig guten Systeme versuchen eigentlich alle, auf dem Wege der Implementation auch neue Grundlagenerkenntnisse zu gewinnen. Und letztendlich sind das dann oft Systeme, die auch besser funktionieren.

TR: Soziale Roboter sollen unter anderem als Fitnesstrainer arbeiten. Halten Sie das für möglich und sinnvoll?

Krämer: Ja. Generell finde ich den Ansatz gut. Es ist sicherlich sinvoller sein, einen Agenten oder Roboter zu nehmen, als ein reines Text-Interface. Das würde ich prinzipiell begrüßen.

Man braucht natürlich nonverbales Verhalten, um die andere Person im positiven Sinne zu manipulieren. Das nutzen wir als Menschen ja auch. Es kann nicht die Lösung sein zu sagen, das Ding ist starr und steif. Denn das wird natürlich auch interpretiert. Man kann nicht nicht kommunizieren, hat Paul Watzlawick gesagt. Das gilt auch für virtuelle Agenten und Roboter. Wenn die nichts machen, ist das Kommunikation in dem Sinne von: Der ist nicht an mir interessiert. Das muss man also auf jeden Fall vermeiden.

TR: Aber wie passt das damit zusammen, dass die psychologischen Modelle unvollständig sind?

Krämer: Es ist aus meiner Sicht ja nicht nötig, Emotionen im Roboter zu haben. Es reicht ja, dass der Roboter versteht, was der Mensch will, um eine gut funktionierende Anwendung zu haben.

TR: Aber dazu muss ich doch wieder die Emotion des Menschen modellieren?

Krämer: Nicht unbedingt. Im Bereich der Theory of Mind gibt es zu dieser Frage zwei verschiedene Ansätze. Die "Theory Theory" besagt, dass man eine Theorie darüber entwickelt, was andere Menschen in welcher Situation denken. Das ist Regelwissen, das man erlernen kann – und somit auch einem Roboter einpflanzen kann. Es gibt aber auch Forscher, die von der "Simulation Theory" ausgehen. Danach müsste der Roboter zuerst diese Emotionen von einem anderen Agenten selbst nachempfinden, um sie verstehen zu können – er simuliert sozusagen die Situation des Anderen.


URL dieses Artikels:
http://www.heise.de/-1124142

Links in diesem Artikel:
[1] http://www.heise.de/tr/magazin/