Streitgespräch: Sind soziale Maschinen wirklich sozial?

Sind soziale Maschinen wirklich sozial? Der Entwicklungspsychologe Markus Paulus meint: "Roboter an sich sind keine sozialen Wesen." Die Robotikerin Verena Hafner entgegnet: "Da würde ich widersprechen."

Lesezeit: 2 Min.
In Pocket speichern
vorlesen Druckansicht Kommentare lesen 2 Beiträge
Von
  • Eva Wolfangel

Dieser Interview-Ausschnitt ist der aktuellen Print-Ausgabe der Technology Review entnommen. Das Heft ist ab 23.2.2017 im gut sortierten Zeitschriftenhandel und im heise shop erhältlich.

TR: Herr Paulus: Kann es aus Ihrer Sicht so etwas wie „soziale Roboter“ überhaupt geben?

PAULUS: Wenn jemand einen Roboter als soziales Wesen behandelt, ist er natürlich für diese Person ein soziales Wesen. Wir können uns aber fragen, ob Roboter an sich soziale Wesen sind. Hier habe ich Zweifel.

TR: Die Roboter von Frau Hafner lernen nach einem ähnlichen Muster wie Kinder. Könnten sie sich dann nicht auch wie Menschen zu sozialen Wesen entwickeln?

PAULUS: Ich sehe einen zentralen Unterschied beim Lernen. Ein Kind will explorieren und lernen. Was das Kind macht, ist kein programmierter Ablauf.

HAFNER: Da würde ich widersprechen. Wir können einem Roboter durchaus intrinsische Motivation mitgeben, eine Art von Neugierde mit der Vorgabe: wähle eine Aktion aus, von der du denkst, dass sie deinen Lernfortschritt maximieren wird. Wenn wir dem Roboter nur diese Vorgabe „sei neugierig“ geben, entstehen interessante Effekte. Am Anfang lernt er die einfachen Dinge, dann wird das langweilig, und der Roboter wendet sich schwierigeren Sachen zu.

PAULUS: Aber ist das wirklich mit dem Verhalten des Menschen vergleichbar? Einem großen Teil unseres Sozialverhaltens liegen zwar simple Motive zugrunde. Uns macht es zum Beispiel einfach Spaß, uns mit anderen auszutauschen. Aber diese Motive sind mit Emotionen verknüpft. Das ist ein zentraler Aspekt. Ich kann diesen inneren Antrieb beim Roboter simulieren. Ich kann ihm sagen: Tu so, als ob dir eine ähnliche Motivation zugrunde liegt. Aber das ist nicht wirklich das Gleiche. Für subjektive Emotion bedarf es eines sehr komplexen Nervensystems. Ich glaube nicht, dass man das nur annähernd simulieren kann.

HAFNER: Man hat beim Menschen doch noch gar nicht so richtig gut verstanden, wie Emotionen funktionieren. Es gibt kein Emotionsmodell. Und auf der anderen Seite können Roboter sehr wohl zum Beispiel menschliche Gesichtsausdrücke interpretieren und entsprechend reagieren.

PAULUS: Emotionen beinhalten aus Sicht einiger Emotionsforscher per Definition subjektives Empfinden. Was sollte das beim Roboter sein?

TR: Aber wenn am Ende das Gleiche dabei herauskommt? Würde es die Emotion an sich infrage stellen, wenn ein Roboter perfekt passend emotional reagiert, sodass es nicht auffällt, dass es simuliert ist?

PAULUS (lacht): Selbst eine perfekte Simulation bleibt eine Simulation. Und ich glaube nicht, dass Roboter so etwas jemals können.

HAFNER: Es ist nicht ausgeschlossen. Man kann einen Roboter freilich nicht einfach programmieren, und dann verhält er sich sofort wie ein Mensch. Roboter müssen sich wie ein Mensch entwickeln, wachsen, mit der Umwelt interagieren. Nehmen Sie das Beispiel Bilderkennung. Sie funktioniert zwar schon gut, aber wenn der Roboter einen Stuhl sieht, versteht er noch nicht, was einen Stuhl ausmacht. Das weiß erst ein Roboter, der sich auf einen Stuhl setzen kann. Erfahrung kann man nicht durch eine Datenbank ersetzen. Unsere Roboter machen diese Erfahrungen, und sie sind zumindest die Grundlage für Intelligenz.

PAULUS: Kleine Inselbereiche intelligenten Verhaltens lassen sich so simulieren. Aber gerade wegen der Verkörperung, mit der Sie arbeiten, werden Menschen und Maschinen doch immer verschieden bleiben. Ein Roboter ist nicht so verletzlich wie ein Mensch, weil er sich nicht verliebt, weil seine Haut nicht brennt, wenn er eine Brennnessel berührt: Das alles sind unsere Erfahrungen. Es wird immer ein großer Unterschied bleiben, gerade weil unser Körper ein anderer ist.

(wst)