Brauchen Roboter eine Ethik und handeln Menschen moralisch?

Überlegungen dazu, wie autonome Systeme handeln sollten, um in die Welt der Menschen integriert werden zu können

Ob Maschinen oder Roboter eine Ethik brauchen, um verantwortungsvoll zu handeln, oder ob Regeln schlicht reichen, ist umstritten. Um moralisch handeln zu können, müssten KI-Systeme nach geläufigen philosophischen Überlegungen entweder Selbstbewusstsein und freien Willen besitzen und vernünftig oder emotional in uneindeutigen Situationen eine moralisch richtige Entscheidung treffen. Ob Menschen meist so handeln, sofern sie überhaupt moralisch verantwortlich entscheiden, oder auch nur meinen, sie würden moralisch richtig handeln, was andere mit gewichtigen Argumenten bestreiten können, sei dahingestellt, ganz abgesehen davon, ob es einen freien Willen gibt.

Man kann aber durchaus der Überzeugung sein, dass Menschen in der Regel etwa im Straßenverkehr, wenn schnelle Reaktionen erforderlich sind, instinktiv oder aus dem Bauch heraus entscheiden, also bestenfalls nach einer Moral handeln, die in der Evolution und durch Vererbung und eigene Erfahrung entstanden ist und das Verhalten vor jedem Selbstbewusstsein und freiem Willen determiniert. Ist es daher nicht naiv, wenn von Maschinen wie autonomen Fahrzeugen moralische Entscheidungen gefordert werden und nicht einfach Regeln oder eine "programmierte Ethik" eingebaut werden?

Wenn man besonders umstrittene autonome Kampfroboter betrachtet, die manche deswegen verhindern wollen, weil sie nicht moralisch handeln, kann man sich etwa fragen, ob Soldaten moralisch handeln, wenn sie auf Befehl andere Menschen auch dann töten, wenn sie selbst nicht unmittelbar betroffen sind, wozu sie schließlich trainiert oder abgerichtet wurden? Es gibt allerdings Einsatzregeln und Kriegsgesetze, die sich auch in Kampfroboter einprogrammieren ließen und die sie dann vielleicht genauer befolgen würden als Menschen, die schon allein aus Sicherheits- und Selbsterhaltungsgründen weniger regelgetreu handeln.

Häufig wird so getan, als wäre es eine besonders schreckliche Vorstellung, wenn autonome Systeme wie Kampfroboter aufgrund bestimmter Regeln oder Algorithmen selbst entscheiden, vor allem wenn es um Situationen geht, in denen es keine eindeutigen richtigen Entscheidungen gibt. Hinter den Ängsten steht der Glaube, es sei besser, wenn ein Mensch, der moralisch handeln können soll, die Entscheidungen trifft.

Man fragt sich angesichts all der Grausamkeiten, Zerstörungen, Egoismen und Profitgier, warum man von vorneherein glaubt, dass eine maschinelle programmierte Ethik schlechter oder furchtbarer sein muss, zumal ein Roboter schneller und "kühl" entscheiden kann. Ist es besser, von einem Menschen getötet oder verletzt zu werden, weil er emotional handeln kann und sein Leben retten will oder wie ein Selbstmordattentäter aufs Spiel setzt, als von einer wie auch immer regelgeleiteten Maschine?

Interessant ist in diesem Kontext der Bericht der vom Bundesminister für Verkehr und digitale Infrastruktur eingesetzte Ethik-Kommission über "Automatisiertes und Vernetztes Fahren". Die Absicht war klar, das Ministerium wollte die Einführung von autonomen Straßenfahrzeugen beschleunigen und Barrieren abbauen. Schon im Vorwort heißt es, man könne nicht ausschließen, "dass am Ende der Entwicklung Kraftfahrzeuge stehen, die inhärent sicher sind, also unter allen Umständen einen Unfall vermeiden können".

Das muss man als interessengeleitete Fiktion bezeichnen, schließlich kann wohl niemals ausgeschlossen werden, dass einem technischen System unter allen Umständen keine Panne oder Störung unterlaufen wird, wodurch aus internen oder externen Ursachen ein Unfall verursacht werden könnte. Zur Zeit, so heißt es weiter, werde aber "eine vollständige Unfallvermeidung nicht möglich" sein. Das bringt die Ethik ins Spiel, also ob autonome Systeme überhaupt zugelassen werden sollen bzw. ob sie ethischen Regeln bei der Entscheidung über das Fahrverhalten folgen müssen.

Zugelassen werden können autonome Systeme nur, so die Kommission, wenn Risiken für Menschen durch diese vermindert werden. Das Prinzip müsse sein, dass die "freien Entfaltung und der Schutz des Menschen" gewahrt bleibe, wobei die Menschen ihre "eigenverantwortliche Entscheidung" an KI-Systeme delegieren können. Gefordert wird, dass die Technik nach ihrem jeweiligen Stand so ausgelegt sein müsse, "dass kritische Situationen gar nicht erst entstehen, dazu gehören auch Dilemma-Situationen, also eine Lage, in der ein automatisiertes Fahrzeug vor der 'Entscheidung' steht, eines von zwei nicht abwägungsfähigen Übeln notwendig verwirklichen zu müssen".

Das ist schnell gesagt, unterläuft allerdings das Problem, denn automatisierte Fahrzeuge können nicht selbst Dilemma-Situationen ausschließen. Sie dürften eigentlich gar nicht erst vorkommen. Aber wie soll das geschehen?

Militärisch wäre dies vergleichbar mit einem Präzisionsgriff, der Kollateralschäden ausschließt. Voraussetzung wäre, dass es in der Welt keine diffusen Zonen gibt, die eine Abwägung erzwingen. Es dürfen keine Zivilisten in der Nähe von Gegnern sein, es darf nicht die Situation entstehen, dass ein Fahrzeug nur die Alternative hat, entweder die eine oder die andere Person zu gefährden, wozu auch noch kommt, wie hoch der Schutz des eigenen Lebens bzw. aus der Sicht des autonomen Fahrzeugs: das des Passagiers zu gelten hat.

Die Erwägung trifft jeder Mensch irgendwie und spontan in Unfallsituationen, die ein ausgiebiges Reflektieren nicht erlauben. Aber dem Menschen überlässt man letztlich die Eigenverantwortung, um ihn dann womöglich, wie auch immer abgestuft, zur Rechenschaft zu ziehen. Aber kann man dies bei KI-Systemen? Wie und zu welchem Zweck könnten diese nachträglich zur Rechenschaft gezogen werden? Wäre bei Fehlentscheidungen der Hersteller verantwortlich? Und wie ist das beim Menschen? Ist Gott oder die Natur verantwortlich?

Anzeige