Über die Moral der Maschinen und eine programmierte Ethik

Wer soll die Verantwortung tragen?

Moralische Dilemmata werden bei Menschen mitunter im Strafrecht entschieden. Bei Robotern, die von einer Firma hergestellt werden, geht es bei der programmierten Moral gewissermaßen primär um die Verantwortung. Hier haften die "Eltern" des Roboters oder seiner KI für die Taten und Pannen - oder die Besitzer? Wie soll/kann juristisch die moralische Entscheidung programmiert werden, ob ein autonomes Fahrzeug, das beispielsweise mit hoher Geschwindigkeit auf eine Massenkarambolage zufährt und nicht mehr bremsen kann, die Personen im Fahrzeug gefährden soll, um andere zu schonen, oder eher sich für das Risiko entscheiden soll, weniger Personen als mehr zu töten? Sind also die Insassen des autonomen Fahrzeugs wichtiger als die von anderen Fahrzeugen? Und ist es immer besser, das bekannte Trolley-Dilemma, nur einen zu töten als mehrere?
Oliver Bendel: Hier müssten wir zunächst einen Juristen fragen. Ich kann versuchen, eine Antwort zum ersten Punkt zu geben, aber ohne Gewähr. Generell werden die Hersteller versuchen, die Verantwortung und die Haftung auf den Besitzer oder Betreiber des Roboters zu übertragen. Sie werden entsprechende Nutzungsbedingungen unterschreiben lassen oder technische Tricks einbauen.
Das ist schon heute so bei den meisten Fahrerassistenzsystemen. Man muss hin und wieder noch das Lenkrad berühren, das Pedal drücken oder den Blinker setzen. Das Lenkrad kann übrigens auch jemand vom Beifahrersitz aus berühren, sodass der Fahrer in Ruhe Zeitung lesen kann. Technisch ist immer weniger notwendig, aber man involviert den Menschen absichtlich, um sich der Haftung zu entziehen. Eigentlich wären alle vor Gericht einzubeziehen, der Hersteller, der Entwickler, der Nutzer. Wenn ich meine angehenden Betriebswirtschaftler, die zukünftige Manager sind, danach frage, wer schuld ist, wenn ein System versagt, sagen sie, die Wirtschaftsinformatiker, denn sie selbst könnten das System letztlich nicht durchblicken. Wenn ich meine angehenden Wirtschaftsinformatiker frage, wer schuld ist, sagen sie, die Manager, denn sie selbst würden letztlich nur deren Weisungen ausführen.
Im Detail ist es schwierig zu sagen, wer die Verantwortung trägt, gerade wenn viele Personen beteiligt waren. Aus Sicht der Konsumentenethik spricht einiges dafür, auch den Benutzer zur Verantwortung zu ziehen, sofern dieser gut informiert ist und sich frei entscheiden kann. Wenn autonome Autos oder bestimmte Automatismen zur Pflicht werden, ist freilich der Spielraum nicht mehr groß. In Asimovs Kurzgeschichte "Sally" von 1952 verbietet die Polizei, händisch in den autonomen Verkehr einzugreifen. Übrigens eine wunderbare Geschichte, die Autos sind Persönlichkeiten, allen voran Sally, die gerne lacht, indem sie die Türen zuschlägt, und sich putzt - und am Ende zusammen mit den blechernen Kollegen einen Menschen tötet.
Sie fragen danach, was rechtlich und moralisch geboten ist. Ich fürchte, ich kann nur die Antwort wiederholen, dass hier keine befriedigende Lösung in Sicht zu sein scheint. Wir können die Fahrzeuge utilitaristische Prinzipien befolgen lassen, aber diese können im Einzelfall rechtlich angreifbar und moralisch fragwürdig sein. Wir können entscheiden, dass sich das Auto, das nicht mehr bremsen kann, selbst zerstören muss, aber wer würde ein solches Auto fahren?
Es kommen also noch pragmatische Aspekte hinzu, denen man allenfalls harte rechtliche Fakten entgegensetzen kann, eine Pflicht zu autonomem Verkehr bei gleichzeitiger Pflicht zur eigenen Aufgabe: Man opfert sich auf dem Altar der Technik. Eine Kollegin schlägt vor, die Gesellschaft nun verhandeln zu lassen, welche Regeln und Fälle wir anwenden wollen. Ich halte die Diskussion in der Gesellschaft für unverzichtbar, und diese muss mitbestimmen können. Wenn Wirtschaft und Politik uns diktieren, wie wir im Straßenverkehr zu sterben haben, wird das kaum für Begeisterung und Aneignung sorgen. Allerdings kann auch ein Mehrheitsbeschluss nicht die letzte Lösung sein. Wenn die Eltern von der Polizei darüber unterrichtet werden, dass ihr Kind aufgrund rationaler Überlegungen des PKW getötet wurde, und diese wiederum auf von der Gesellschaft vereinbarten Konventionen beruhen, hilft das den Eltern nicht weiter in ihrer Trauer und ihrer Wut, und sie werden dieses Urteil nicht hinnehmen, obwohl verstandesmäßige und mehrheitsfähige Überlegungen dahinterstecken. Womöglich macht das die Sache sogar schlimmer. Mein Kind musste aus Vernunftgründen sterben - und weil die Gesellschaft es so gewollt hat.
Was also tun? Ich rate hartnäckig dazu, bestimmte Maschinen in offenen Welten nicht auf uns loszulassen. Es sind vermutlich tragfähige Kompromisse möglich. Man kann autonome Autos in den Städten verbieten und zwischen den Städten fahren lassen, auf bestimmten Spuren, wobei der Spurwechsel meist gut beherrscht wird, zu bestimmten Uhrzeiten, mit bestimmten Geschwindigkeiten. Eventuell auch im Entenmarsch, ein Auto fährt voran, die anderen bilden eine Kette wie die Küken hinter der Mutter. Projekte dieser Art hat es gegeben. Bei einer solchen Entflechtung des Verkehrs sind diejenigen beruhigt, die dem autonomen Auto misstrauen, und es werden kaum Unfälle mit konventionellen Fahrzeugen auftreten.
Das wäre bei autonomen Drohnen, die ja über unseren Köpfen über Stadt und Land fliegen, wohl nicht so einfach möglich. Aber vielleicht ist es gut, mal im Kleinen zu sehen, was da an moralischer Programmierung auf uns zukommen mag. Nehmen wir mal die Roboter, die in die smart homes einziehen, also Spielroboter, Pflegeroboter, Kontrollroboter, Saugroboter, Mähroboter im Garten - oder auch Sexroboter, an denen ja auch gearbeitet wird. Sie sammeln wie alle smarten Geräte im Internet der Dinge haufenweise Daten über das Leben der Bewohner. Die Daten werden gebraucht, um die Roboter an die Umgebung, die Arbeiten und die Wünsche der Bewohner anzupassen. Wie aber lässt sich verhindern, dass sie weitergegeben werden, und erreichen, dass wie früher beim Dienstpersonal Verschwiegenheit Pflicht ist und die Arbeit möglichst im Hintergrund erledigt wird?
Oliver Bendel: Die Drohnen sind tatsächlich eine eigene Kategorie. Sie sind über unseren Köpfen, und sie können in hunderten Schichten unterwegs sein. Man muss in drei Dimensionen denken, sowohl als Mensch als auch als Maschine. Dennoch ist der Luftraum im Moment noch weniger komplex als der Bodenbereich. Wenn Häuser und Antennen aufhören, wenn die Berggipfel hinter einem liegen und die Passagierflugzeuge noch weit entfernt sind, lässt sich relativ frei fliegen. Das könnte sich bald ändern.
Was die Roboter als Spione anbetrifft, bin ich pessimistisch. Es gibt bereits zahlreiche Systeme im Haushalt, die uns potenziell oder reell belauschen und beobachten, die intelligenten Fernseher, das intelligente Spielzeug, die Notebooks, Smartphones und Tablets. Dazu kommen nun die Serviceroboter. Über die Daten hinaus, die sie zum Funktionieren und Optimieren benötigen, werden die Hersteller ein Interesse haben, an Daten zu gelangen. Bei Echo von Amazon und Hello Barbie von Mattel ist das offensichtlich, aber bei einem Saugroboter denke ich vielleicht nicht daran.
Was ist, wenn mein tierfreundlicher Roboter nicht besonders freundlich zum Menschen ist, seine persönliche und informationelle Autonomie verletzt, in seine Privatsphäre eindringt? Das sind Fragen, die sich in Technik- und Informationsethik stellen. Antworten kann auch die Informatik geben, ein besserer Schutz für eingebettete Software, die Verschlüsselung von bestimmten Daten, die Verunmöglichung der Erhebung von bestimmten Daten. Wichtig finde ich, dass wir, wenn wir das wollen, technologiefreie Räume aufsuchen, technologiefreie Gegenstände benutzen, technologiefreie Kleidung tragen können. Rückzugsgebiete, wo wir sicher und frei sein können. Aber wo wird das sein? Wahrscheinlich treffen wir uns in Zukunft im Wald, um Geheimnisse auszutauschen. Allerdings sollte man auf die Insekten aufpassen, die herumkrabbeln und -fliegen. Sie könnten tierische Cyborgs sein.

Dass Menschen den Maschinen einen freien Willen schenken werden, halte ich für unwahrscheinlich.

Interessant wird bei Robotern und halbwegs intelligenten oder autonomen Maschinen, wir hatten schon darüber gesprochen, wer für ihr Verhalten moralisch und rechtlich verantwortlich gemacht wird. Kann und muss der Hersteller des gesamten Systems bzw. nur der KI für "Pannen" verantwortlich gemacht werden oder hat der Nutzer/Besitzer weiterhin eine Verantwortung, auch wenn er ein System eben nur nutzt, aber nicht versteht und es intentional oder fahrlässig verwendet? Müsste er dann verantwortlich gemacht werden, wenn er beispielsweise die Sicherheitsupdates nicht rechtzeitig durchführt bzw. durchführen lässt oder ein Passwort weitergibt? Und wäre es vorstellbar, dass ab einer gewissen Autonomie weder Hersteller noch Benutzer, sondern die Maschine eben selbst verantwortlich gemacht werden müsste? Letztlich wäre dies ein wenig so aus religiöser Sicht wie das Verhältnis von Gott zu den Menschen, denen er einen freien Willen gegeben hat.
Oliver Bendel: Sie fragen nochmals nach der Verantwortung. Die Hersteller werden wie bisher versuchen, Verantwortung und Haftung auf den Besitzer bzw. Benutzer zu übertragen. Wir kennen das von Parkassistenten und Autopiloten. Wenn sie selbst die Verantwortung übernehmen, ist das im Moment eher Marketing, vielleicht auch Werbung für Akzeptanz. Es geht um hohe Summen, und man wird zumindest versuchen, einen Teil davon von den Insassen der Roboterautos zurückzubekommen.
Es ist nicht grundsätzlich falsch, dass auch die Besitzer und Benutzer eine Sekundär- und Tertiärverantwortung tragen, also zur Verantwortung gezogen werden können, wenn sie eine Wahl haben. Wenn ich aber automatische und autonome Funktionen nutzen muss oder wenn ich sie nicht verstehen kann, möchte ich auch im Falle eines Falles zumindest ein Stück weit entlastet werden.
Das mit der Verantwortung für Updates ist interessant. Dazu kann man natürlich verpflichtet werden. Allerdings sorgen die Automobilhersteller schon selbst dafür, dass hier nichts schiefgeht. Tesla spielt nachts neue Versionen auf, und die Besitzer haben morgens das Gefühl, ein neues Auto zu haben. Ich halte die Maschine, wie deutlich wurde, für ein merkwürdiges neues Subjekt der Moral. Vielleicht ist sie auch ein merkwürdiges neues Subjekt der Verantwortung. Ich würde dabei aber nicht zu weit gehen. Um Verantwortung zu übernehmen, braucht es, anders als bei primitiver maschineller (oder auch fundamentalistischer) Moral, gewisse Einsichten, gewisse Formen des Bewusstseins. Diese sehe ich bei der Maschine im Moment nicht. Auch die Freiheit des Willens sehe ich nicht, allenfalls ein Spiel mit Alternativen.
Kurzum: Dass Götter die Menschen mit freiem Willen ausgestattet haben, halte ich für unmöglich. Dass Menschen den Maschinen einen freien Willen schenken werden, halte ich für unwahrscheinlich. Was man sicherlich machen kann: Man kann das Auto mit Optionen der Verhandlung und Entschädigung ausstatten. Wenn der eine PKW beim Einparken den anderen touchiert, ohne dass Menschen anwesend sind, würden sie den Schaden mit Hilfe ihrer Kameras gemeinsam betrachten, sich auf eine Summe einigen und diese transferieren. Das beschädigte Auto könnte eine Werkstatt aufsuchen und dann wieder in die Parklücke schlüpfen, und der Besitzer würde davon erst durch einen Ausnahmebericht erfahren.