Über die Moral der Maschinen und eine programmierte Ethik

Android Actroid-DER. Bild: Gnsin/CC-BY-SA-3.0

Der Philosoph und Wirtschaftsinformatiker Oliver Bendel zu Maschinen als einem merkwürdigen neuen Subjekt der Moral

Von Oliver Bendel ist gerade das Telepolis-eBook "Die Moral in der Maschine: Beiträge zu Roboter- und Maschinenethik" erschienen. Das war Anlass, einmal in einem Dialog verschiedenen übergreifenden Fragen nachzugehen, um zu klären, was eine Maschinenethik überhaupt sein soll. Prof. Dr. Oliver Bendel ist Philosoph und Wirtschaftsinformatiker am Institut für Wirtschaftsinformatik der Hochschule für Wirtschaft in Windisch. Er ist Experte in den Bereichen E-Learning, Wissensmanagement, Social Media, Web 2.0, Mobile Business, Avatare und Agenten sowie Informationsethik und Maschinenethik. Und er ist auch als Autor von Romanen und Gedichten tätig.

Maschinen und Roboter ziehen in die Lebenswelt ein, was bedeutet, dass wir zunehmend damit konfrontiert sind, wie wir uns verhalten, während diese darauf ausgerichtet sein müssen, mit uns unter ganz unterschiedlichen Bedingungen vom Kampfroboter bis hin zum Pflegeroboter zu interagieren. Maschinenethik oder Roboterethik mutet in diesem Kontext auf den ersten Blick seltsam an. In Analogie zur Tierethik könnte man meinen, es gehe um den Schutz der Maschinen, denn Tieren wird nicht selbst ethisches Handeln unterstellt. Oder spielt Maschinenethik doch darauf an, dass Maschinen bzw. Roboter frei entscheiden können, weil erst dann eigentlich moralisches Handeln ins Spiel kommt? Ansonsten folgen sie Regeln, für die die Hersteller der Maschinen verantwortlich wären.
Oliver Bendel: Bei der Tierethik geht es in der Tat um das Tier als Objekt der Moral. Bei der Roboterethik kann der Mensch als Objekt der Moral gemeint sein. Sie fragt danach, was mit uns beim Einsatz von Robotern geschieht. Wie verändert sich unsere Welt, unser Alltag, unsere Arbeit, wie verändern wir uns? Was sind Chancen, was sind Risiken? Sie fragt zudem nach den Rechten von Robotern.
Ich persönlich glaube nicht, dass wir diesbezüglich im Moment ernsthaft Handlungsbedarf haben. Nicht zuletzt kann man die Roboterethik als Teilbereich der Maschinenethik auffassen. Diese hat die Moral von Maschinen zum Gegenstand. Diese wären also Subjekte der Moral. Es ist völlig klar, dass es ganz spezielle Subjekte sind. Und man muss auch nicht zwangsläufig von Moral sprechen. Man darf diesen Begriff als Metapher sehen und danach fragen, ob diese passt oder nicht.
Die Moral ist ein Setting aus Überzeugungen, Vorstellungen, Ideen und Werten in Bezug auf das, was gut und böse ist. Sie kennt im besten Falle das Halten an Regeln und das Brechen von Regeln. Die Maschinen folgen Regeln, die man ihnen gegeben hat, oder sie vergleichen Fälle. Allerdings können sie dazulernen, eigene Regeln ableiten, eigene Fälle konstruieren. Damit können sie sich auch weit von dem entfernen, was Hersteller und Programmierer ursprünglich wollten. Das ist ohne Zweifel gefährlich.
Sie sagen, dass erst dann moralisches Handeln ins Spiel kommt, wenn man frei entscheiden kann. Das ist ein schöner und alter Gedanke, und ich bin ebenfalls der Meinung, dass eine "gelungene" Moral eine Mischung aus Instinkten, Gefühlen, rationalen Überlegungen, Gewissensentscheidungen etc. ist. Aber was ist mit den Millionen Menschen, die stur bestimmten moralischen Regeln folgen, die von anderen niedergeschrieben worden sind, ohne Wenn und Aber? Sind die außerhalb der Moral? Womöglich trifft das zu. Auf jeden Fall überhöht man gerne die Maschinen. Und die Menschen auch.
Sie sagen, Maschinen, vielleicht müsste man ergänzen: intelligente Maschinen seien spezielle Subjekte der Moral, die nach Ihrem Ansatz erstmals auf andere "Wesen" als Menschen erweitert werden muss. Ab wann würde denn eine Maschine zum moralischen Subjekt werden? Solange sie vollständig vom Menschen kontrolliert werden und die Abläufe ohne Spielräume sind, vermutlich nicht. Wo würde denn Autonomie und damit Moral einsetzen? Oder würden Sie da ganz anders herangehen?
Oliver Bendel: Ich würde sagen, bestimmte intelligente oder intelligent wirkende Maschinen könnten Subjekte der Moral sein, in einem ganz neuen, zu klärenden Sinne. Vielleicht stehen teilautonome und autonome Systeme zwischen Tier und Mensch. Vielleicht stehen sie auch ganz woanders.
Dass sie teilautonom oder autonom sind, ist für mich ein wesentlicher Aspekt. Sie werden alleingelassen, müssen sich in künstlichen oder natürlichen Umgebungen zurechtfinden und dort, ohne dass eine Menschenseele in der Nähe wäre, Entscheidungen treffen. Sie beobachten, sie werten aus, sie vergleichen, und dann urteilen sie.
Zur Autonomie, nach der Sie fragen, gehört ein Spielraum in der Selbstständigkeit, eine Entscheidungsmöglichkeit, auch eine Bewertungsmöglichkeit. Ein Getränkeautomat hat keine Autonomie, eine ferngesteuerte Drohne auch nicht, ebenso wenig eine Drohne, die einen vorgegebenen Weg abfliegen muss, es sei denn, sie hat Hindernissen auszuweichen. Die Autonomie beginnt, wenn die Drohne los- und alleingelassen wird, wenn sie sich selbst zwischen verschiedenen Möglichkeiten entscheiden darf, wenn sie den einen Weg wählt oder den anderen, wenn sie Bilder von einem Gegenstand macht, von einem anderen nicht. Natürlich folgt sie dabei ebenfalls zunächst den Vorgaben des Menschen. Aber es ist eine mehr oder weniger offene Welt, in der sie sich bewegt, und es kann überraschend sein, wie sich die ambitionierte Drohne entscheidet. Wenn sie dazulernen kann, dann kann sie sich weit von dem entfernen, was wir uns vorgestellt haben. Und das mag wiederum gefährlich sein.
"Moral" ist, dessen bin ich mir bewusst, ein heikler Begriff, so beladen, so schwer. Man kann auch, wie gesagt, von einem Setting sprechen. Dazu können Regeln gehören, und die Maschinen können diese befolgen und anwenden, je nach Grad der Intelligenz und der Autonomie. Und je nach Situation. Und sie können auch selber Regeln bilden. Vielleicht können wir auch ganz pragmatisch an die Sache herangehen: Letzten Endes geht es darum, dass wir Maschinen denken und bauen, die in moralisch aufgeladenen Situationen adäquat agieren und reagieren. Vorher sind sie gleichgültig, nach dem "Moralisieren" sind sie darauf angelegt, etwas zu tun, was wir (oder sogar sie) als gut und richtig ansehen würden.
Am Begriff "gleichgültig" sehen wir schon wieder, wie schwierig es ist, angemessen über das Thema zu reden. Man gerät vom Begriff zur Metapher und wieder zurück. Die Maschine ist eine Maschine, sie ist eigentlich nicht gleichgültig, sie ist eigentlich nicht dumm, aber wie nahe liegt es, so zu sprechen. Eine ähnliche Problematik haben wir beim Tier. Ein Tier ist ein Tier, es ist ebenfalls nicht gleichgültig, es ist nicht dumm, und vor allem ist es nicht böse. Wenn wir zum Hund sagen, er sei böse, dann meinen wir das nicht wirklich so. Dann meinen wir, er soll das nicht wieder tun, wir wollen ihn maßregeln, umerziehen etc. Aber wir wollen ihn nicht zu einem moralisch guten Hund machen. Der existiert nicht.
Zur Maschine können wir, an sie gewandt, ebenso wenig sagen, dass sie böse oder gut ist, außer in metaphorischer Weise, wir können sie auch nicht haftbar machen, sie zur Verantwortung ziehen. Was wir aber können: Wir können ihr beibringen, sich gut zu verhalten, also mindestens so, dass es für uns gut ist. Wir können dabei weit über das hinausgehen, was beim Tier möglich ist, das in der Regel seine Triebe und Instinkte behält. Und wir können auf einer rationalen Grundlage aufbauen. Auch das ist beim Tier schwierig. Spricht also nicht alles dafür, die Maschine in moralischer Hinsicht zwischen Tier und Mensch anzusiedeln? Das kann man so sehen, und doch bleibt ein ungutes Gefühl. Höherentwickelte Tiere haben ein Sozialleben, eine Vormoral, und sie sind unendlich komplizierter, komplexer und "schöner" als Maschinen.
Noch ein Versuch in dieser Richtung. Ein einjähriges Kind ist außerhalb der Moral, es ist amoralisch. Es gibt Ansätze zur Moral in ihm, so wie es Ansätze zur Sprache gibt, und wie wir wissen, entwickeln sich diese Ansätze, es entsteht eine Tötungshemmung, ein Wahrheitsanspruch. Das Kind verhandelt zudem das, was zu tun ist, mit anderen Jungen und Mädchen und mit Erwachsenen. Man trainiert sich gegenseitig, tadelt und lobt sich, man lernt Moral wie eine Sprache, verspricht sich, wird korrigiert. Dann setzen eigene Überlegungen ein, man stellt in Frage, entwickelt Überzeugungen. Die Rationalität der Jugend schiebt sich über die Diffusität der Kindheit. Wie ist hier die intelligente, moralisierte Maschine einzuordnen? Offensichtlich ist sie weiter als das einjährige Kind. Und dennoch liegt sie weit hinter ihm zurück.
Kommentare lesen (33 Beiträge)
Anzeige