Robophilosophy: Die Komplexität der Roboterethik

Wie entscheiden Roboter ein moralisches Dilemma? Und wie entwickelt man ethische Standards für KI? Das debattieren Forscher auf der Konferenz Robophilosophy.

Lesezeit: 6 Min.
In Pocket speichern
vorlesen Druckansicht Kommentare lesen 80 Beiträge
Robophilosophy: Die Komplexität der Roboterethik

(Bild: sdecoret/Shutterstock.com)

Von
  • Hans-Arthur Marsiske
Inhaltsverzeichnis

Zwei Menschen bewegen sich auf einen Abgrund zu. Ein Roboter könnte wenigstens einen von ihnen vor dem tödlichen Sturz bewahren, indem er sich in den Weg stellt. Aber wen soll er retten? Unentschlossen bewegt er sich hin und her – und rettet am Ende keinen. Es sei möglicherweise das erste Experiment gewesen, bei dem reale Roboter mit einem ethischen Dilemma konfrontiert wurden, sagte Alan Winfield (University of the West of England) auf der Konferenz Robophilosophy 2020, die in diesen Tagen online abgehalten wird.

Der Abgrund existierte nicht wirklich bei diesem Experiment, sondern wurde durch einen rechteckigen Bereich symbolisiert, der gemieden werden sollte. Es waren auch keine Menschen beteiligt, sondern ausschließlich e-puck-Roboter. Zwei stellten die Menschen dar, der dritte spielte die Rolle des Retters, der dem ersten Asimowschen Robotergesetz folgen und Schaden von den Menschen abwenden sollte.

Hervorgegangen ist das Experiment aus Überlegungen zur Roboterethik. Der Transparenz des Roboterhandelns werde dabei höchste Priorität eingeräumt, erläuterte Winfield. Ein Roboter müsse in der Lage sein, sein Verhalten zu erklären, insbesondere wenn er einen Fehler gemacht und Schaden verursacht habe. Dabei spiele die "Theory of Mind" eine zentrale Rolle, also die Fähigkeit, sich in andere Personen hineinzuversetzen und Annahmen über deren Bewusstseinszustand zu machen.

Um diese Fähigkeit auch Robotern zu verleihen, hat Winfield die Consequence Engine entwickelt. Diese Software arbeitet parallel zum Robot Controller und unterstützt die Aktionsauswahl, indem sie alle möglichen Aktionen intern simuliert und bewertet. Winfield betonte, dass die Simulation in Echtzeit auf den Robotern vorgenommen werde.

Die kleinen Roboter sollen Menschen (H) vor dem "Absturz" bewahren.

(Bild: Alan Winfield)

Im Dilemma-Experiment sei aber wohl die Frequenz von 2 Hertz, mit der die Consequence Engine Aktionen auswählte, unzureichend gewesen und habe zu einer "pathologischen Unentschlossenheit" geführt. Der Roboter habe immer versucht, seine Entscheidungen der inzwischen veränderten Situation neu anzupassen.

Fragen zur Ethik und Moral zählen zur Kernkompetenz von Philosophen und werden daher in vielen Konferenzbeiträgen thematisiert. Tomi Kokkonen (University of Helsinki) und Aleksandra Kornienko (Österreichische Akademie der Wissenschaften) verweisen etwa in ihren Beiträgen auf den evolutionären Ursprung der Moral beim Menschen, die aus den Notwendigkeiten des sozialen Zusammenlebens erwachsen sei.

Kornienko bezweifelt, dass ein ähnlicher Prozess bei Robotern in einem akzeptablen Zeitrahmen realisierbar sei. Andererseits sei es bislang allerdings auch nicht gelungen, ein schlüssiges moralisches Regelwerk zusammenzustellen, das Robotern einfach einprogrammiert werden könnte.

Kokkonen erscheint mit seinen Ausführungen zur Protomoral, zu deren Kapazitäten er Altruismus und das Bedürfnis nach fairem Umgang miteinander zählt, etwas optimistischer. Die Protomoral sei möglicherweise Voraussetzung für die volle, reflektierte Moral beim Menschen. Daher könnte eine mittelfristige Perspektive, die sich an einem ähnlichen hierarchischen Aufbau orientiert, auch bei Robotern erfolgversprechend sein.

Autonome KI-Einkaufswagen in China.

Mit der Frage, ob Roboterethik überhaupt auf ähnliche Weise standardisiert werden kann, wie es im Ingenieurwesen oder im juristischen Bereich üblich ist, beschäftigt sich Michael Funk (Universität Wien). Eine schlüssige Antwort bleibt er allerdings schuldig, sondern konzentriert sich zunächst darauf, die vielfältigen Facetten der hierbei verwendeten Begriffe und Konzepte zu sortieren.

Aber ob es nun möglich ist, ethische Standards zu formulieren oder nicht: Es wird versucht. So berichtete John P. Sullins von der US-amerikanischen Sonoma State University von dem Bemühen, unter dem Zeichen IEEE P7008 einen Standard für ethisch akzeptables Nudging durch Roboter und autonome Systeme zu entwickeln.

Als Nudging werden Methoden zur Beeinflussung von Verhalten bezeichnet, die ohne Einschränkung der Wahlmöglichkeiten und materielle Anreize auskommen. So sollen Menschen etwa zu einer gesünderen Ernährung bewegt werden, indem die entsprechenden Speisen in der Kantine leichter erreichbar und in Augenhöhe platziert werden. Auch seine eigene Präsentation sei durch Nudging beeinflusst worden, sagt Sullins, indem er stets die gestalterischen Vorschläge des Systems akzeptiert habe.

Die Methode ist umstritten und wird als paternalistisch, manipulativ und technokratisch kritisiert. Der kurzfristige Nutzen könnte durch langfristige Schäden mehr als aufgehoben werden. Wie attraktiv Nudging allerdings für Robotikanwendungen sein kann, illustriert ein Video, das Sullins zeigte: In einem chinesischen Supermarkt werden die Kunden von Robotern begleitet, die als Einkaufskörbe dienen. Sie registrieren, was der Kunde mitgenommen hat, sodass der sich zum Schluss nur noch vor eine Kamera stellen muss, um per Gesichtserkennung zu bezahlen.

Es sei naheliegend, solche Roboter mit Empfehlungssystemen auszustatten, die den Kunden auf Produkte und Angebote aufmerksam machen, die ihn besonders interessieren könnten, meint Sullins. Ob das mit der ethischen Leitlinie vereinbar ist, die in dem IEEE-Dokument Ethically Aligned Design formuliert wurde und eine Orientierung an den unveräußerlichen Menschenrechten sowie am allgemeinen ökonomischen Wohlstand statt am Produktivitätszuwachs oder Wachstum des Bruttosozialprodukts fordert?

Raffaele Rodogno (Aarhus University) hält Nudging für akzeptabel, solange es hilft, selbst gesetzte Ziele zu erreichen. Schrittzähler und andere Fitness-Apps könnten dazu ermutigen, sich mehr zu bewegen und Sport zu treiben. Es ist allerdings die Frage, ob in so einem Fall nicht eher von Coaching gesprochen werden sollte.

Marcus Westberg (Umeå University) sieht aber auch so einen Einsatz kritisch. Als Beispiel nennt er ein Smartphone, das die Schritte zählt: Wird das vorgegebene Ziel von 10.000 Schritten pro Tag nicht erreicht, springt der Nutzer hektisch im Wohnzimmer herum, bis die 10.000 auf dem Display erscheint. Die Technologie diene dann nicht mehr dazu, den Nutzer zu stärken, sondern der Nutzer wolle der Technologie gefallen. Gamification könne diesen Effekt noch weiter verschärfen.

(vbr)