zurück zum Artikel

Über die Moral der Maschinen und eine programmierte Ethik

Android Actroid-DER. Bild: Gnsin/CC-BY-SA-3.0

Der Philosoph und Wirtschaftsinformatiker Oliver Bendel zu Maschinen als einem merkwürdigen neuen Subjekt der Moral

Von Oliver Bendel [1] ist gerade das Telepolis-eBook "Die Moral in der Maschine: Beiträge zu Roboter- und Maschinenethik" erschienen. Das war Anlass, einmal in einem Dialog verschiedenen übergreifenden Fragen nachzugehen, um zu klären, was eine Maschinenethik überhaupt sein soll. Prof. Dr. Oliver Bendel ist Philosoph und Wirtschaftsinformatiker am Institut für Wirtschaftsinformatik der Hochschule für Wirtschaft in Windisch. Er ist Experte in den Bereichen E-Learning, Wissensmanagement, Social Media, Web 2.0, Mobile Business, Avatare und Agenten sowie Informationsethik und Maschinenethik. Und er ist auch als Autor [2] von Romanen und Gedichten tätig.

Maschinen und Roboter ziehen in die Lebenswelt ein, was bedeutet, dass wir zunehmend damit konfrontiert sind, wie wir uns verhalten, während diese darauf ausgerichtet sein müssen, mit uns unter ganz unterschiedlichen Bedingungen vom Kampfroboter bis hin zum Pflegeroboter zu interagieren. Maschinenethik oder Roboterethik mutet in diesem Kontext auf den ersten Blick seltsam an. In Analogie zur Tierethik könnte man meinen, es gehe um den Schutz der Maschinen, denn Tieren wird nicht selbst ethisches Handeln unterstellt. Oder spielt Maschinenethik doch darauf an, dass Maschinen bzw. Roboter frei entscheiden können, weil erst dann eigentlich moralisches Handeln ins Spiel kommt? Ansonsten folgen sie Regeln, für die die Hersteller der Maschinen verantwortlich wären.
Oliver Bendel: Bei der Tierethik geht es in der Tat um das Tier als Objekt der Moral. Bei der Roboterethik kann der Mensch als Objekt der Moral gemeint sein. Sie fragt danach, was mit uns beim Einsatz von Robotern geschieht. Wie verändert sich unsere Welt, unser Alltag, unsere Arbeit, wie verändern wir uns? Was sind Chancen, was sind Risiken? Sie fragt zudem nach den Rechten von Robotern.
Ich persönlich glaube nicht, dass wir diesbezüglich im Moment ernsthaft Handlungsbedarf haben. Nicht zuletzt kann man die Roboterethik als Teilbereich der Maschinenethik auffassen. Diese hat die Moral von Maschinen zum Gegenstand. Diese wären also Subjekte der Moral. Es ist völlig klar, dass es ganz spezielle Subjekte sind. Und man muss auch nicht zwangsläufig von Moral sprechen. Man darf diesen Begriff als Metapher sehen und danach fragen, ob diese passt oder nicht.
Die Moral ist ein Setting aus Überzeugungen, Vorstellungen, Ideen und Werten in Bezug auf das, was gut und böse ist. Sie kennt im besten Falle das Halten an Regeln und das Brechen von Regeln. Die Maschinen folgen Regeln, die man ihnen gegeben hat, oder sie vergleichen Fälle. Allerdings können sie dazulernen, eigene Regeln ableiten, eigene Fälle konstruieren. Damit können sie sich auch weit von dem entfernen, was Hersteller und Programmierer ursprünglich wollten. Das ist ohne Zweifel gefährlich.
Sie sagen, dass erst dann moralisches Handeln ins Spiel kommt, wenn man frei entscheiden kann. Das ist ein schöner und alter Gedanke, und ich bin ebenfalls der Meinung, dass eine "gelungene" Moral eine Mischung aus Instinkten, Gefühlen, rationalen Überlegungen, Gewissensentscheidungen etc. ist. Aber was ist mit den Millionen Menschen, die stur bestimmten moralischen Regeln folgen, die von anderen niedergeschrieben worden sind, ohne Wenn und Aber? Sind die außerhalb der Moral? Womöglich trifft das zu. Auf jeden Fall überhöht man gerne die Maschinen. Und die Menschen auch.
Sie sagen, Maschinen, vielleicht müsste man ergänzen: intelligente Maschinen seien spezielle Subjekte der Moral, die nach Ihrem Ansatz erstmals auf andere "Wesen" als Menschen erweitert werden muss. Ab wann würde denn eine Maschine zum moralischen Subjekt werden? Solange sie vollständig vom Menschen kontrolliert werden und die Abläufe ohne Spielräume sind, vermutlich nicht. Wo würde denn Autonomie und damit Moral einsetzen? Oder würden Sie da ganz anders herangehen?
Oliver Bendel: Ich würde sagen, bestimmte intelligente oder intelligent wirkende Maschinen könnten Subjekte der Moral sein, in einem ganz neuen, zu klärenden Sinne. Vielleicht stehen teilautonome und autonome Systeme zwischen Tier und Mensch. Vielleicht stehen sie auch ganz woanders.
Dass sie teilautonom oder autonom sind, ist für mich ein wesentlicher Aspekt. Sie werden alleingelassen, müssen sich in künstlichen oder natürlichen Umgebungen zurechtfinden und dort, ohne dass eine Menschenseele in der Nähe wäre, Entscheidungen treffen. Sie beobachten, sie werten aus, sie vergleichen, und dann urteilen sie.
Zur Autonomie, nach der Sie fragen, gehört ein Spielraum in der Selbstständigkeit, eine Entscheidungsmöglichkeit, auch eine Bewertungsmöglichkeit. Ein Getränkeautomat hat keine Autonomie, eine ferngesteuerte Drohne auch nicht, ebenso wenig eine Drohne, die einen vorgegebenen Weg abfliegen muss, es sei denn, sie hat Hindernissen auszuweichen. Die Autonomie beginnt, wenn die Drohne los- und alleingelassen wird, wenn sie sich selbst zwischen verschiedenen Möglichkeiten entscheiden darf, wenn sie den einen Weg wählt oder den anderen, wenn sie Bilder von einem Gegenstand macht, von einem anderen nicht. Natürlich folgt sie dabei ebenfalls zunächst den Vorgaben des Menschen. Aber es ist eine mehr oder weniger offene Welt, in der sie sich bewegt, und es kann überraschend sein, wie sich die ambitionierte Drohne entscheidet. Wenn sie dazulernen kann, dann kann sie sich weit von dem entfernen, was wir uns vorgestellt haben. Und das mag wiederum gefährlich sein.
"Moral" ist, dessen bin ich mir bewusst, ein heikler Begriff, so beladen, so schwer. Man kann auch, wie gesagt, von einem Setting sprechen. Dazu können Regeln gehören, und die Maschinen können diese befolgen und anwenden, je nach Grad der Intelligenz und der Autonomie. Und je nach Situation. Und sie können auch selber Regeln bilden. Vielleicht können wir auch ganz pragmatisch an die Sache herangehen: Letzten Endes geht es darum, dass wir Maschinen denken und bauen, die in moralisch aufgeladenen Situationen adäquat agieren und reagieren. Vorher sind sie gleichgültig, nach dem "Moralisieren" sind sie darauf angelegt, etwas zu tun, was wir (oder sogar sie) als gut und richtig ansehen würden.
Am Begriff "gleichgültig" sehen wir schon wieder, wie schwierig es ist, angemessen über das Thema zu reden. Man gerät vom Begriff zur Metapher und wieder zurück. Die Maschine ist eine Maschine, sie ist eigentlich nicht gleichgültig, sie ist eigentlich nicht dumm, aber wie nahe liegt es, so zu sprechen. Eine ähnliche Problematik haben wir beim Tier. Ein Tier ist ein Tier, es ist ebenfalls nicht gleichgültig, es ist nicht dumm, und vor allem ist es nicht böse. Wenn wir zum Hund sagen, er sei böse, dann meinen wir das nicht wirklich so. Dann meinen wir, er soll das nicht wieder tun, wir wollen ihn maßregeln, umerziehen etc. Aber wir wollen ihn nicht zu einem moralisch guten Hund machen. Der existiert nicht.
Zur Maschine können wir, an sie gewandt, ebenso wenig sagen, dass sie böse oder gut ist, außer in metaphorischer Weise, wir können sie auch nicht haftbar machen, sie zur Verantwortung ziehen. Was wir aber können: Wir können ihr beibringen, sich gut zu verhalten, also mindestens so, dass es für uns gut ist. Wir können dabei weit über das hinausgehen, was beim Tier möglich ist, das in der Regel seine Triebe und Instinkte behält. Und wir können auf einer rationalen Grundlage aufbauen. Auch das ist beim Tier schwierig. Spricht also nicht alles dafür, die Maschine in moralischer Hinsicht zwischen Tier und Mensch anzusiedeln? Das kann man so sehen, und doch bleibt ein ungutes Gefühl. Höherentwickelte Tiere haben ein Sozialleben, eine Vormoral, und sie sind unendlich komplizierter, komplexer und "schöner" als Maschinen.
Noch ein Versuch in dieser Richtung. Ein einjähriges Kind ist außerhalb der Moral, es ist amoralisch. Es gibt Ansätze zur Moral in ihm, so wie es Ansätze zur Sprache gibt, und wie wir wissen, entwickeln sich diese Ansätze, es entsteht eine Tötungshemmung, ein Wahrheitsanspruch. Das Kind verhandelt zudem das, was zu tun ist, mit anderen Jungen und Mädchen und mit Erwachsenen. Man trainiert sich gegenseitig, tadelt und lobt sich, man lernt Moral wie eine Sprache, verspricht sich, wird korrigiert. Dann setzen eigene Überlegungen ein, man stellt in Frage, entwickelt Überzeugungen. Die Rationalität der Jugend schiebt sich über die Diffusität der Kindheit. Wie ist hier die intelligente, moralisierte Maschine einzuordnen? Offensichtlich ist sie weiter als das einjährige Kind. Und dennoch liegt sie weit hinter ihm zurück.

Moralische Geräte, die zur individuellen Moral ihrer Besitzer und Benutzer passen

Gut möglich, dass lernende intelligente Maschinen/Roboter, wenn sie mit Menschen und ihresgleichen "aufwachsen", auch soziale Regeln für den Umgang mit Menschen, anderen Lebewesen, Dingen oder Mitmaschinen entwickeln, wie immer die dann aussehen werden. Zunächst aber geht es darum, den autonomen Maschinen Moral, also ein Set von Regeln, einzuprogrammieren. Berühmt geworden sind die "Asimovschen Gesetze", nach denen ein Roboter keinem Menschen Schaden zufügen darf und den Menschen gehorchen muss. Im Sinne der Selbsterhaltung soll er sich auch schützen, wenn die beiden ersten Gesetze nicht dabei verletzt werden. Von welchen grundsätzlichen Regeln würden Sie denn, über alle unterschiedlichen Roboter hinweg, Kampfroboter einmal ausgenommen, ausgehen? Oder wäre das ein falscher Ansatz?
Oliver Bendel: Dass Roboter wie Kinder aufwachsen und dazulernen, ist ein hochinteressanter und wohlbekannter Ansatz. Und man kann diesen natürlich auch für das Moralisieren der Maschinen verwenden. Bei Asimov muss man zunächst bedenken, dass er die Regeln im fiktionalen Kontext entwickelt hat. Er hat, weil er ihre Unzulänglichkeit gesehen hat, eine Regel 0 dazugenommen und die anderen angepasst. Man kann schon versuchen, gewisse Meta- oder Grundregeln zu definieren, die für möglichst viele Roboterarten gelten sollen. Aber man stößt schnell an Grenzen.
Für unseren GOODBOT habe ich sieben Metaregeln entwickelt, u.a. auch diejenige, dass er nicht lügen soll. Meine drei Studenten, die den Chatbot programmiert haben, haben diese Regel angepasst: "Der GOODBOT belügt den Benutzer grundsätzlich nicht, außer wenn Regel 3 verletzt würde." Diese lautete: "Der GOODBOT verletzt den Benutzer weder durch Aussehen, Mimik und Gestik noch mit seinen Aussagen." Eine Grundregel, dass der Mensch psychisch oder physisch unversehrt bleiben soll, scheint sinnvoll zu sein.
Eine Ausnahme haben Sie schon genannt, die autonomen Kampfroboter. Als würden Sie einem Soldaten untersagen, im Krieg zu töten. Und beim selbstständig fahrenden Auto ist eben der Witz, dass dieses, etwa weil die Bremsen versagen, in Dilemmata geraten kann, die definitionsgemäß schwer aufzulösen sind. Es muss unter Umständen irgendjemandem körperlichen Schaden zufügen. Da nutzt die Regel dann auch nichts mehr.
Ich bin aber nicht ganz pessimistisch, denn in etlichen Fällen, gerade bei einfachen moralischen Maschinen, brauchen wir keine grundsätzlichen Regeln. Wir brauchen Regeln und letztlich Merkmale und Funktionen, die dem Kunden gefallen. Ein bisschen wie bei Fairtrade. Ein Beispiel dafür ist LADYBIRD, der tierfreundliche Saugroboter, den ich auf dem Papier konzipiert habe. Er weigert sich, daher der Name, einen Marienkäfer einzusaugen. Wer den Staubsauger braucht, um eine Spinne verschwinden zu lassen, muss halt die Variante mit dem Kill-Button wählen. Der Markt regelt das am Ende. Damit sage ich nicht, dass dann alles gut wird, ganz im Gegenteil, und das Töten der Spinne ist in meinen Augen falsch und überflüssig. Aber wir können durchaus moralische Geräte bauen, die zur individuellen Moral ihrer Besitzer und Benutzer passen. Zumindest in einem Haushalt funktioniert das gut, in der Wohnung und im Garten.
Bei Roboterautos wäre eine jeweils individuelle Moral interessant, aber gefährlich, wenn es Menschen betrifft. Mit Blick auf Tiere sehe ich wiederum die Möglichkeit, dass man das für sich passende Modell aussucht. Das fängt übrigens schon bei Fahrerassistenzsystemen wie Notbremsassistenten und bei Autopiloten an. Das Tesla Model C würde nicht nur für Rehe, sondern auch für Katzen bremsen. Natürlich nur, wenn es die Verkehrslage zulässt.
Sie scheinen das Modell von spezifischen moralischen Regeln für Saug-, Pflege-, Kampf- oder Fahrzeugroboter vorzuziehen. Aber Roboter leben in einer gemeinsamen Welt mit unterschiedlichen Menschen, Robotern und anderen Lebewesen und Dingen, mit denen sie umgehen müssen bzw. die sie nicht gefährden sollen. Wäre da nicht doch eine universelle Moral erforderlich, eine Art kantischer Imperativ, auch wenn dieser nicht andere Lebewesen als Menschen einschloss und Selbstbewusstsein, also sich an die Stelle eines anderen versetzen zu können, voraussetzte? Oder wäre, philosophisch orientiert, nur eine pragmatische, relative oder utilitaristische Moral ausreichend?
Oliver Bendel: Ich konzentriere mich in meiner Arbeit, wie deutlich wurde, auf teilautonome oder autonome Maschinen, die in überschaubaren und mehrheitlich auch individuellen Bereichen ihre Arbeit tun. Bei Saugrobotern in einem Singlehaushalt braucht man keine universelle Moral. Ein Paar muss sich schon arrangieren, aber nicht nur in dieser Sache. Bei einer Familie, einer Lebensgemeinschaft oder einer WG können natürlich bereits Spannungen entstehen. Der eine will die Spinne einsaugen, der andere nicht. Eine Lösung könnten Saugroboter sein, die mehrere Profile oder spezielle Tasten haben.
Sie sprechen nun nochmals Roboter an, die sich durch offene Welten bewegen und auf viele unterschiedliche Menschen und Situationen treffen. Man kann sie mit unterschiedlichen Modellen normativer Ethik ausstatten. Die Pflichtethik kommt genauso in Frage wie die Folgenethik. Klassische utilitaristische Prinzipien lassen sich relativ einfach umsetzen. Die Maschine zählt z.B. einfach durch oder bewertet Alter und Gesundheit. Das Trolley-Problem ist hinlänglich bekannt. Das Roboterauto-Problem, wie ich es nenne, könnte ebenfalls so gelöst werden, dass man die eine Person tötet, nicht die Gruppe von fünf Leuten. Aber was ist, wenn der eine der Chefredakteur von Telepolis ist und die anderen IS-Kämpfer sind?
Das Durchzählen ist nicht immer sinnvoll und zielführend. Das maschinelle Einschätzen von Alter, Gesundheit, Schönheit, Wichtigkeit und Reichtum schon gar nicht. Eine Möglichkeit ist, solche komplexen moralischen Maschinen erst gar nicht zu bauen. Selbstverständlich wird es irgendjemand tun, wird die Atombombe unter den moralischen Maschinen konstruieren, ein beobachtendes, selbstlernendes System, das sich ständig umbaut und verbessert bis hin zum GAU, zum größten anzunehmenden Unfug. Wichtig ist, dass wir die damit verbundenen Schwierigkeiten und Folgeerscheinungen antizipieren und diskutieren. Die Maschinenethik als Gestaltungsdisziplin braucht hier eine Begleiterin, die Informationsethik als Reflexionsdisziplin, oder auch die Technikethik.
Übrigens gibt es noch ganz andere Optionen, die Maschinen auszurüsten und zu erziehen. Diese könnten sich an einer Referenzperson orientieren oder die sozialen Medien auswerten. Roboter könnten sich auch gegenseitig korrigieren. Alles nicht unheikle Verfahren. Dass Referenzpersonen oder Gesprächspartner in die Irre führen können, haben wir beim Chatbot Tay erlebt. Dieser geriet sozusagen in schlechte Gesellschaft.

Wer soll die Verantwortung tragen?

Moralische Dilemmata werden bei Menschen mitunter im Strafrecht entschieden. Bei Robotern, die von einer Firma hergestellt werden, geht es bei der programmierten Moral gewissermaßen primär um die Verantwortung. Hier haften die "Eltern" des Roboters oder seiner KI für die Taten und Pannen - oder die Besitzer? Wie soll/kann juristisch die moralische Entscheidung programmiert werden, ob ein autonomes Fahrzeug, das beispielsweise mit hoher Geschwindigkeit auf eine Massenkarambolage zufährt und nicht mehr bremsen kann, die Personen im Fahrzeug gefährden soll, um andere zu schonen, oder eher sich für das Risiko entscheiden soll, weniger Personen als mehr zu töten? Sind also die Insassen des autonomen Fahrzeugs wichtiger als die von anderen Fahrzeugen? Und ist es immer besser, das bekannte Trolley-Dilemma, nur einen zu töten als mehrere?
Oliver Bendel: Hier müssten wir zunächst einen Juristen fragen. Ich kann versuchen, eine Antwort zum ersten Punkt zu geben, aber ohne Gewähr. Generell werden die Hersteller versuchen, die Verantwortung und die Haftung auf den Besitzer oder Betreiber des Roboters zu übertragen. Sie werden entsprechende Nutzungsbedingungen unterschreiben lassen oder technische Tricks einbauen.
Das ist schon heute so bei den meisten Fahrerassistenzsystemen. Man muss hin und wieder noch das Lenkrad berühren, das Pedal drücken oder den Blinker setzen. Das Lenkrad kann übrigens auch jemand vom Beifahrersitz aus berühren, sodass der Fahrer in Ruhe Zeitung lesen kann. Technisch ist immer weniger notwendig, aber man involviert den Menschen absichtlich, um sich der Haftung zu entziehen. Eigentlich wären alle vor Gericht einzubeziehen, der Hersteller, der Entwickler, der Nutzer. Wenn ich meine angehenden Betriebswirtschaftler, die zukünftige Manager sind, danach frage, wer schuld ist, wenn ein System versagt, sagen sie, die Wirtschaftsinformatiker, denn sie selbst könnten das System letztlich nicht durchblicken. Wenn ich meine angehenden Wirtschaftsinformatiker frage, wer schuld ist, sagen sie, die Manager, denn sie selbst würden letztlich nur deren Weisungen ausführen.
Im Detail ist es schwierig zu sagen, wer die Verantwortung trägt, gerade wenn viele Personen beteiligt waren. Aus Sicht der Konsumentenethik spricht einiges dafür, auch den Benutzer zur Verantwortung zu ziehen, sofern dieser gut informiert ist und sich frei entscheiden kann. Wenn autonome Autos oder bestimmte Automatismen zur Pflicht werden, ist freilich der Spielraum nicht mehr groß. In Asimovs Kurzgeschichte "Sally" von 1952 verbietet die Polizei, händisch in den autonomen Verkehr einzugreifen. Übrigens eine wunderbare Geschichte, die Autos sind Persönlichkeiten, allen voran Sally, die gerne lacht, indem sie die Türen zuschlägt, und sich putzt - und am Ende zusammen mit den blechernen Kollegen einen Menschen tötet.
Sie fragen danach, was rechtlich und moralisch geboten ist. Ich fürchte, ich kann nur die Antwort wiederholen, dass hier keine befriedigende Lösung in Sicht zu sein scheint. Wir können die Fahrzeuge utilitaristische Prinzipien befolgen lassen, aber diese können im Einzelfall rechtlich angreifbar und moralisch fragwürdig sein. Wir können entscheiden, dass sich das Auto, das nicht mehr bremsen kann, selbst zerstören muss, aber wer würde ein solches Auto fahren?
Es kommen also noch pragmatische Aspekte hinzu, denen man allenfalls harte rechtliche Fakten entgegensetzen kann, eine Pflicht zu autonomem Verkehr bei gleichzeitiger Pflicht zur eigenen Aufgabe: Man opfert sich auf dem Altar der Technik. Eine Kollegin schlägt vor, die Gesellschaft nun verhandeln zu lassen, welche Regeln und Fälle wir anwenden wollen. Ich halte die Diskussion in der Gesellschaft für unverzichtbar, und diese muss mitbestimmen können. Wenn Wirtschaft und Politik uns diktieren, wie wir im Straßenverkehr zu sterben haben, wird das kaum für Begeisterung und Aneignung sorgen. Allerdings kann auch ein Mehrheitsbeschluss nicht die letzte Lösung sein. Wenn die Eltern von der Polizei darüber unterrichtet werden, dass ihr Kind aufgrund rationaler Überlegungen des PKW getötet wurde, und diese wiederum auf von der Gesellschaft vereinbarten Konventionen beruhen, hilft das den Eltern nicht weiter in ihrer Trauer und ihrer Wut, und sie werden dieses Urteil nicht hinnehmen, obwohl verstandesmäßige und mehrheitsfähige Überlegungen dahinterstecken. Womöglich macht das die Sache sogar schlimmer. Mein Kind musste aus Vernunftgründen sterben - und weil die Gesellschaft es so gewollt hat.
Was also tun? Ich rate hartnäckig dazu, bestimmte Maschinen in offenen Welten nicht auf uns loszulassen. Es sind vermutlich tragfähige Kompromisse möglich. Man kann autonome Autos in den Städten verbieten und zwischen den Städten fahren lassen, auf bestimmten Spuren, wobei der Spurwechsel meist gut beherrscht wird, zu bestimmten Uhrzeiten, mit bestimmten Geschwindigkeiten. Eventuell auch im Entenmarsch, ein Auto fährt voran, die anderen bilden eine Kette wie die Küken hinter der Mutter. Projekte dieser Art hat es gegeben. Bei einer solchen Entflechtung des Verkehrs sind diejenigen beruhigt, die dem autonomen Auto misstrauen, und es werden kaum Unfälle mit konventionellen Fahrzeugen auftreten.
Das wäre bei autonomen Drohnen, die ja über unseren Köpfen über Stadt und Land fliegen, wohl nicht so einfach möglich. Aber vielleicht ist es gut, mal im Kleinen zu sehen, was da an moralischer Programmierung auf uns zukommen mag. Nehmen wir mal die Roboter, die in die smart homes einziehen, also Spielroboter, Pflegeroboter, Kontrollroboter, Saugroboter, Mähroboter im Garten - oder auch Sexroboter, an denen ja auch gearbeitet wird. Sie sammeln wie alle smarten Geräte im Internet der Dinge haufenweise Daten über das Leben der Bewohner. Die Daten werden gebraucht, um die Roboter an die Umgebung, die Arbeiten und die Wünsche der Bewohner anzupassen. Wie aber lässt sich verhindern, dass sie weitergegeben werden, und erreichen, dass wie früher beim Dienstpersonal Verschwiegenheit Pflicht ist und die Arbeit möglichst im Hintergrund erledigt wird?
Oliver Bendel: Die Drohnen sind tatsächlich eine eigene Kategorie. Sie sind über unseren Köpfen, und sie können in hunderten Schichten unterwegs sein. Man muss in drei Dimensionen denken, sowohl als Mensch als auch als Maschine. Dennoch ist der Luftraum im Moment noch weniger komplex als der Bodenbereich. Wenn Häuser und Antennen aufhören, wenn die Berggipfel hinter einem liegen und die Passagierflugzeuge noch weit entfernt sind, lässt sich relativ frei fliegen. Das könnte sich bald ändern.
Was die Roboter als Spione anbetrifft, bin ich pessimistisch. Es gibt bereits zahlreiche Systeme im Haushalt, die uns potenziell oder reell belauschen und beobachten, die intelligenten Fernseher, das intelligente Spielzeug, die Notebooks, Smartphones und Tablets. Dazu kommen nun die Serviceroboter. Über die Daten hinaus, die sie zum Funktionieren und Optimieren benötigen, werden die Hersteller ein Interesse haben, an Daten zu gelangen. Bei Echo von Amazon und Hello Barbie von Mattel ist das offensichtlich, aber bei einem Saugroboter denke ich vielleicht nicht daran.
Was ist, wenn mein tierfreundlicher Roboter nicht besonders freundlich zum Menschen ist, seine persönliche und informationelle Autonomie verletzt, in seine Privatsphäre eindringt? Das sind Fragen, die sich in Technik- und Informationsethik stellen. Antworten kann auch die Informatik geben, ein besserer Schutz für eingebettete Software, die Verschlüsselung von bestimmten Daten, die Verunmöglichung der Erhebung von bestimmten Daten. Wichtig finde ich, dass wir, wenn wir das wollen, technologiefreie Räume aufsuchen, technologiefreie Gegenstände benutzen, technologiefreie Kleidung tragen können. Rückzugsgebiete, wo wir sicher und frei sein können. Aber wo wird das sein? Wahrscheinlich treffen wir uns in Zukunft im Wald, um Geheimnisse auszutauschen. Allerdings sollte man auf die Insekten aufpassen, die herumkrabbeln und -fliegen. Sie könnten tierische Cyborgs sein.

Dass Menschen den Maschinen einen freien Willen schenken werden, halte ich für unwahrscheinlich.

Interessant wird bei Robotern und halbwegs intelligenten oder autonomen Maschinen, wir hatten schon darüber gesprochen, wer für ihr Verhalten moralisch und rechtlich verantwortlich gemacht wird. Kann und muss der Hersteller des gesamten Systems bzw. nur der KI für "Pannen" verantwortlich gemacht werden oder hat der Nutzer/Besitzer weiterhin eine Verantwortung, auch wenn er ein System eben nur nutzt, aber nicht versteht und es intentional oder fahrlässig verwendet? Müsste er dann verantwortlich gemacht werden, wenn er beispielsweise die Sicherheitsupdates nicht rechtzeitig durchführt bzw. durchführen lässt oder ein Passwort weitergibt? Und wäre es vorstellbar, dass ab einer gewissen Autonomie weder Hersteller noch Benutzer, sondern die Maschine eben selbst verantwortlich gemacht werden müsste? Letztlich wäre dies ein wenig so aus religiöser Sicht wie das Verhältnis von Gott zu den Menschen, denen er einen freien Willen gegeben hat.
Oliver Bendel: Sie fragen nochmals nach der Verantwortung. Die Hersteller werden wie bisher versuchen, Verantwortung und Haftung auf den Besitzer bzw. Benutzer zu übertragen. Wir kennen das von Parkassistenten und Autopiloten. Wenn sie selbst die Verantwortung übernehmen, ist das im Moment eher Marketing, vielleicht auch Werbung für Akzeptanz. Es geht um hohe Summen, und man wird zumindest versuchen, einen Teil davon von den Insassen der Roboterautos zurückzubekommen.
Es ist nicht grundsätzlich falsch, dass auch die Besitzer und Benutzer eine Sekundär- und Tertiärverantwortung tragen, also zur Verantwortung gezogen werden können, wenn sie eine Wahl haben. Wenn ich aber automatische und autonome Funktionen nutzen muss oder wenn ich sie nicht verstehen kann, möchte ich auch im Falle eines Falles zumindest ein Stück weit entlastet werden.
Das mit der Verantwortung für Updates ist interessant. Dazu kann man natürlich verpflichtet werden. Allerdings sorgen die Automobilhersteller schon selbst dafür, dass hier nichts schiefgeht. Tesla spielt nachts neue Versionen auf, und die Besitzer haben morgens das Gefühl, ein neues Auto zu haben. Ich halte die Maschine, wie deutlich wurde, für ein merkwürdiges neues Subjekt der Moral. Vielleicht ist sie auch ein merkwürdiges neues Subjekt der Verantwortung. Ich würde dabei aber nicht zu weit gehen. Um Verantwortung zu übernehmen, braucht es, anders als bei primitiver maschineller (oder auch fundamentalistischer) Moral, gewisse Einsichten, gewisse Formen des Bewusstseins. Diese sehe ich bei der Maschine im Moment nicht. Auch die Freiheit des Willens sehe ich nicht, allenfalls ein Spiel mit Alternativen.
Kurzum: Dass Götter die Menschen mit freiem Willen ausgestattet haben, halte ich für unmöglich. Dass Menschen den Maschinen einen freien Willen schenken werden, halte ich für unwahrscheinlich. Was man sicherlich machen kann: Man kann das Auto mit Optionen der Verhandlung und Entschädigung ausstatten. Wenn der eine PKW beim Einparken den anderen touchiert, ohne dass Menschen anwesend sind, würden sie den Schaden mit Hilfe ihrer Kameras gemeinsam betrachten, sich auf eine Summe einigen und diese transferieren. Das beschädigte Auto könnte eine Werkstatt aufsuchen und dann wieder in die Parklücke schlüpfen, und der Besitzer würde davon erst durch einen Ausnahmebericht erfahren.

"Ich gestehe weder Steinhaufen noch Robotern Rechte zu"

Gleich ob nun Maschinen oder Roboter einen freien Willen oder (Selbst)Bewusstsein jemals haben werden, werden wir immer stärker mit verkörperten oder virtuellen Akteuren in Interaktion, aber auch in Kommunikation treten. Wir müssen uns zu ihnen verhalten und werden mit ihnen sprechen auch sprechen müssen, auch wenn wir nicht selbst wollen, weil etwa Menschen durch sie ersetzt werden. Es ist bekannt, wie schnell Menschen eine persönliche Beziehung zu Tieren wie Hunden eingehen können, was dann auch eine moralische Komponente erhält. Wie also werden uns einigermaßen intelligente Maschinen und Roboter verändern, wenn sie unseren Alltag zunehmend bevölkern? Werden sie unsere nächsten Verwandten und unser Verhalten zu ihnen als eine Art Lebewesen prägen?
Oliver Bendel: Moral ist ein Rahmen für das Verhalten gegenüber den Mitmenschen, gegenüber sich selbst und gegenüber der Umwelt. Was die Umwelt angeht, ist man sich nicht einig. Viele halten Tiere für Objekte der Moral. Eine Stiftung in Basel, die sich dem effektiven Altruismus verschrieben hat, fordert Grundrechte für alle Primaten, was man sicherlich unterstützen kann, ob man dieser Bewegung anhängt oder nicht, und man kann auch weit darüber hinausgehen.
Bei den Pflanzen wird es schwierig. Die Eltern bitten das Kind, die Blumen am Wegesrand nicht zu köpfen. Aber warum tun sie das? Weil das Kind verrohen würde? Weil es Schönheit vernichtet, die im Auge des Betrachters liegt? Das wären Argumente, die sich auf Menschen beziehen. Oder weil die Pflanzen ein Interesse haben? So weit würde ich nicht gehen, selbst wenn man Kommunikationsfähigkeiten und Interessenbekundungen auf irgendeiner Ebene feststellen kann. Vielleicht haben die Pflanzen einen Wert, über den ökonomischen hinaus? Bei Steinen und Bergen wird es ganz schwierig. Warum sollte ich die Spitze des Matterhorns nicht sprengen? Gute Argumente gibt es in Bezug auf Menschen und Tiere. Aber hat das Matterhorn selbst Rechte oder zumindest irgendeinen Wert?
Ich gestehe weder Steinhaufen noch Robotern Rechte zu. Das bedeutet für mich aber nicht, dass wir uns ihnen gegenüber beliebig verhalten können.
Wir tendieren generell dazu, in Gegenstände etwas hineinzudenken, und wir geben Dingen einen Namen, einen Eigennamen, nennen das Auto Horst und die Puppe Lilli. Bei Robotern, die sich bewegen wie wir, die aussehen wie wir, liegt es nahe, dass wir sie wie Tiere oder Menschen behandeln. Vielleicht erschrecken sie uns, weil sie uns sehr ähnlich sind, aber irgendetwas nicht stimmt, weil ihr Lächeln entgleitet, ihr Gang ruckartig wird. Vielleicht erfreuen sie uns auch, wir finden sie lustig und niedlich. In jedem Falle sind sie neuartige Subjekte, von Entscheidungen, von Handlungen und eben auch der Moral.
Wir teilen uns den Lebensraum mit ihnen, obwohl wir leben und sie nicht. Sie verbrauchen Energie, die wir mit Hilfe von Wind- oder Atomkraft produzieren und für die wir die natürliche Umwelt zerstören müssen. Sie spielen eine Rolle, sie sind uns im Weg, sie machen uns den Weg frei, sie unterstützen uns in der Fabrik, auf der Straße, sie betten uns um und richten uns auf, wenn wir pflegebedürftig sind. Wir werden sie hassen und lieben, und wir werden sie körperlich lieben.
Es steht uns ein langer Lernprozess bevor, in jeder Beziehung. Ich halte es für wichtig, dass uns die Maschinen regelmäßig darauf aufmerksam machen, dass sie nur Maschinen sind, und spreche in Anlehnung an Brecht vom V-Effekt für Roboter. Sie sollten uns aus unserer Illusion reißen, in Wort und Tat, und zwar gerade dann, wenn das Verhältnis eng ist, die Abhängigkeit groß - und die Folgen gravierend sind.

URL dieses Artikels:
https://www.heise.de/-3223183

Links in diesem Artikel:
[1] http://www.oliverbendel.net/
[2] http://www.oliverbendel.net/index2.html