Mensch-Maschine-Beziehungen: Vertrau' mir, ich bin ein Roboter

Einer Person zu vertrauen, bedeute, sich ihr gegenüber verletzbar zu machen, meinen Forscherinnen. Und untersuchen das in der Beziehung von Mensch zu Roboter.

Lesezeit: 3 Min.
In Pocket speichern
vorlesen Druckansicht Kommentare lesen 80 Beiträge
CeBIT
Von
  • Hans-Arthur Marsiske

Es mag ja noch angehen, wenn dich im Klamottenladen ein Roboter auf Sonderangebote aufmerksam macht oder dir einen speziellen Rabatt anbietet. Aber wenn er dich dann an der Kasse auf einmal nach deinem Sternzeichen oder deinem Lieblingskäfer fragt, kommst du möglicherweise doch ins Grübeln, ob du im richtigen Laden bist und dem Roboterverkäufer vertrauen kannst.

Vertrauen habe mit Verletzlichkeit zu tun, erklärte Glenda Hannibal (TU Wien) jetzt bei der Konferenz RO-MAN (International Conference on Robot and Human Interactive Communication). Einer anderen Person zu vertrauen, bedeute, sich ihr gegenüber verletzbar zu machen. Auf Grundlage dieser auf Roger C. Mayer zurückgehenden Definition hat sie zusammen mit Astrid Weiss (TU Wien) und Vicky Charisi (JRC) ein Experiment entworfen, um das Vertrauen in Mensch-Roboter-Beziehungen besser zu verstehen und zu messen.

Bisher sei in solchen Experimenten vorrangig die Verletzlichkeit des Roboters thematisiert worden, etwa wenn er durch Demonstration von Unsicherheiten das Vertrauen seiner menschlichen Kooperationspartner gewinnen sollte. Dagegen wollten die Forscherinnen jetzt die Verletzlichkeit der Menschen in den Mittelpunkt stellen.

Als weitere Begrenztheit bisheriger Studien nennen sie die häufige Nutzung von Spielszenarien, bei denen es um den Wettstreit untereinander mit relativ hohen Einsätzen ginge. Das sei recht weit von alltäglichen Situationen entfernt, in denen Vertrauen zumeist sehr viel subtiler auf die Probe gestellt werde. Zudem werde Vertrauen dabei als rein rationale Erwägung betrachtet, während es im Alltag tatsächlich vor allem um Emotionen und Moralvorstellungen gehe. Angeregt durch ein Video, das 2016 bei der Jahrestagung der US-amerikanischen National Retail Federation präsentiert wurde, schlagen sie daher ein Szenario des Kleiderkaufs in einer Boutique vor. Dabei soll der Roboter das Vertrauen der Kunden auf dreifache Weise enttäuschen:

  • er bietet einen Rabatt an, den er an der Kasse dann doch nicht berücksichtigt (Verletzung der wirtschaftlichen Fairness);
  • er weist den Kunden/die Kundin darauf hin, dass er/sie ein Kleidungsstück für das andere Geschlecht ausgewählt habe, schlägt vor die Kundendaten entsprechend zu ändern und fragt, ob er diesen Vorgang als Trainingsdaten für andere Roboter verwenden kann (Verletzung der Privatsphäre);
  • um zukünftig bessere Empfehlungen geben zu können, fragt der Roboter nach irrelevanten Informationen wie dem Sternzeichen oder dem Lieblingskäfer (Verletzung der Transparenz).

Wegen der Covid-19-Pandemie konnten die Forscherinnen das Experiment noch nicht durchführen, haben seine Aussagekraft aber schon mal bei einer Online-Umfrage mit 98 Teilnehmern getestet, bei der sie Bilder des Roboters Pepper verwendeten. Dabei zeigte sich, dass das Vertrauen in den Roboter am stärksten beim ersten Szenario (wirtschaftliche Fairness) erschüttert wurde, während das zweite Szenario (Privatsphäre) die geringsten Auswirkungen hatte.

Auch das Gefühl der Verletztheit wirkte sich negativ auf das Vertrauen gegenüber dem Roboter aus. Allerdings hätten nicht alle Teilnehmer dieses Gefühl klar benennen können, weswegen es ratsam erscheine, es bei zukünftigen Experimenten durch indirektere Fragen zu ermitteln. Grundsätzlich fühlen sich Hannibal und ihre Kolleginnen durch ihre Machbarkeitsstudie aber darin bestärkt, das Vertrauen in Mensch-Roboter-Interaktionen zukünftig vermehrt durch Experimente zu erkunden, die an vertraute Alltagssituationen angelehnt sind.

(jk)