Pentagon: Ethik von KI-Systemen

Mission Master oder Drohnenpanzer. Bild: Rheinmetall

Der Defense Innovation Board hat ethische Empfehlungen vorgelegt, die widersprüchlich, vage, kaum moralisch argumentierend und eine Luftveranstaltung sind

Letztes Jahr hatte das Pentagon dem Defense Innovation Board aufgefordert Prinzipien für eine ethische Benutzung von KI zu erstellen. Der mit Vertretern aus der Industrie und Wissenschaft hat nun einen solchen Katalog vorgelegt, natürlich nach dem Selbstverständnis des Pentagon, dem Gegner "militärisch und technisch" überlegen zu bleiben. In der Einleitung zu dem vorgelegten Bericht heißt es noch, die Überlegenheit müsse einhergehen mit der "Wahrung und Förderung demokratischer Prinzipien, der Zusammenarbeit mit den Alliierten einem Beitrag zu einer stabilen, friedlichen internationalen Gemeinschaft". Ob das Trumps Politik entspricht, mag ebenso dahingestellt sein wie Frage, wie die zahlreichen militärischen, auch völkerrechtswidrigen militärischen Interventionen der Demokratie und dem Frieden gedient haben.

In dem Bericht, zu dessen Verfertigung neben Vertretern von IT-Konzernen auch eine bunte Mischung von Menschenrechtsexperten, Wissenschaftler, Vertreter der Zivilgesellschaft, Philosophen, Venturekapitalisten, Wirtschaftsführer und Pentagon-Mitarbeiter" konsultiert worden sein sollen, wird apodiktisch hervorgehoben, dass KI überall eindringen und den Krieg verändern wird. Deswegen müsse man hier anderen Staaten überlegen sein. Ausgerechnet kurz nach dem Rückzug aus Rojava und der Erklärung nur die syrischen Ölfelder noch "schützen" zu wollen, wobei Amerikaner wie Türken sich völkerrechtswidrig in Syrien befinden, heißt es dort überschwänglich: "We have witnessed how deeply committed the women and men who work in the Department are to ethics: avoiding civilian casualties, adhering to international humanitarian law, and collaborating with allies in international fora to advance international law and norms."

Das soll im Rahmen der fünf erarbeiteten ethischen Prinzipien geschehen, die die Überlegenheit der USA nicht nur technisch, sondern auch ethisch sichern sollen, wobei die Ethik natürlich einen Rahmen setzen soll, um kinetische und legale Gewalt zu legitimieren:

"Verantwortlich: Menschen sollen einen angemessenes Ausmaß an Beurteilung ausüben und für die Entwicklung, den Einsatz, die Verwendung und die Ergebnisse von KI-Ssytemen verantwortlich bleiben.
Fair: Das Verteidigungsministerium sollte überlegte Schritte ausführen, um unbeabsichtigte Vorurteile in der Entwicklung und beim Einsatz von Kampf- und Nichtkampf-KI-Systemen zu vermeiden, die unbeabsichtigt Menschen einen Schaden zufügen.
Rückverfolgbar. Die Ingenieursdisziplin sollte ausreichend fortgeschritten sein, so dass technische Experten ein angmessenes Verständnis der Technik, der Entwicklungsprozesse und Operationsmethoden der eigenen KI-Systeme besitzen.

Verlässlich. KI-Systeme sollten einen expliziten, wohldefinierten Einsatzbereich haben, die Sicherheit und die Robustheit sollten getestet und für ihren ganzen Lebenszyklus in diesem Einsatzbereich gesichert sein.
Steuerbar. Pentagon-KI-Systeme sollten so entworfen und technisch gestaltet sein, dass sie ihre beabsichtigte Funktion ausführen können, während sie die Fähigkeit besitzen, unbeabsichtigen Schaden oder Störung zu entdecken und zu vermeiden und sich zu unterbrechen oder zu deaktivieren."

Moralische Weißwaschung?

Dass immer Menschen die letzte Entscheidung haben sollen, ist schon seit Jahren Pentagon-Doktrin (US-Soldaten schätzen autonome Roboter nicht; US-Verteidigungsminister: "Niemals" volle Autonomie für Kampfroboter). Absehbar ist allerdings, dass man dieses Prinzip schnell aufgeben wird, wenn in der Kriegsführung KI-Systeme gegen andere KI-Systeme antreten und bei schrumpfenden Zeitfenster, vielleicht bei Millisekunden, der dazwischengeschaltete Mensch die Entscheidungs- und Handlungsfähigkeit zu stark verlangsamen und eine Eskalation in Kraft tritt. Das wird selbst dann passieren, wenn der Menschen nur noch einen Vorschlag des KI-Systems annehmen oder ablehnen kann, zumal wenn beim Gegner kein "man on or in the loop" ist (Man on the loop?).

Man wird davon ausgehen können, dass dieses Prinzip nur vorübergehend der Beruhigung der Öffentlichkeit (und vielleicht auch des Militärs) dienen und schnell dann ausgehebelt wird, um das Gleichgewicht oder die Überlegenheit zu wahren. Die Idee einer programmierten Ethik wird gar nicht verfolgt, obgleich sie schon im Zivilbereich, beispielsweise im Verkehr mit autonomen Fahrzeugen, virulent ist.

Dass Pentagon-Techniker imstande sein sollten, nachträglich nachverfolgen zu können, wie KI-Systeme zu einer Entscheidung gekommen sind, um das zu verändern oder zu verbessern, ist einsichtig. KI-Systeme sollen keine Black Box sein, wie das Menschen sind. Die Frage ist, ob das mit wachsender Komplexität und zunehmenden Freiheitsgraden prinzipiell möglich bleiben wird. Hier geht es letztlich darum, ob die Maschinen transparent und kontrollierbar bleiben oder man eher Systeme vor sich hat, die menschlichen Gehirnen gleichen und die man mit neurowissenschaftlichen Methoden zu verstehen sucht oder die man psychologisch behandelt.

Sollen KI-Systeme selbständig entscheiden oder nicht?

Das Vermeiden von Vorurteilen durch Auswahl entsprechender Datensets dürfte sehr schwer, wenn nicht unmöglich sein. Bei der Identifizierung von Feinden wird man auf gewisse Merkmale setzen müssen, was mit Gewissheit falsche Positive produzieren wird, während Gegner durch Maskerade, Kleidung etc. versuchen können, die Erkennung auszutricksen. Zudem ist beinhaltet, dass absichtlich Menschen getötet werden sollen, verpönt ist unabsichtlich.

Spricht man von der Ethik der Kriegsführung, dann geht es nicht nur um das Verhalten im Einsatz, sondern auch um die Rechtfertigung des Einsatzes. In einem völkerrechtswidrigen Krieg ist auch eine "saubere" Kriegsführung ein Vergehen. Mit Präzisionswaffen entsteht das neue Problem, das Kriegsführung einem Mord, einer "gezielten Tötung", nähert. Schon jetzt führen die USA mit Kampfdrohnen einen solchen Krieg gegen Verdächtige, die nicht direkt US-Soldaten oder Zivilisten bedrohen. Mit KI-Systemen werden auch präventive Angriffe verstärkt ausgeführt werden, womit man noch weiter auf einen moralischen Schlingerkurs gerät.

Das ethische Prinzip, dass ein KI-System einen genau definierten Einsatzbereich haben soll, erscheint widersinnig. Dafür lassen sich Maschinen mit genau definierten Einsatzregeln verwenden, der Vorteil von KI-Systemen sollte doch gerade sein, dass sie flexibler sind und durch Erfahrung lernen können, wodurch sie den Einsatzbereich ausdehnen oder verschärfen würden. Und natürlich werden KI-Systeme nicht isoliert eingesetzt, sondern handeln in einer komplexen Landschaft auch mit anderen KI-Systemen. Es müssten also auch alle existierenden und künftigen Interaktionen mit Menschen und anderen KI-Systemen geprüft werden. Der Board gesteht ein, dass es viele Probleme geben kann, vor allem mit non-linearen Systemen, komplexen adaptiven Systemen und lernenden Systemen, die neue Eigenschaften entwickeln können.

Geradezu widersinnig erscheint, KI-Systeme unter menschlicher Kontrolle und durchsichtig halten zu wollen und dann gleichzeitig zu fordern, dass sie selbständig vorausschauend erkennen sollen, wenn sie "unbeabsichtigten" - von wem unbeabsichtigt? - Schaden verursachen würden. Der Board macht klar, dass KI und autonom zwei Paar Schuhe sind. Autonome Systeme müssen nicht "intelligent" sein, KI-Systeme müssen nicht autonom sein. Wie auch immer, wenn sich KI-Systeme selbst entscheiden können sollen, ob sie ihren Auftrag beenden, dann wäre hier kein Mensch mehr "on the loop". Nach dem ersten Prinzip dürfte eigentlich auch kein KI-System selbständig eine Aktion abbrechen.

Die Suche nach ethischen Prinzipien zur empfohlenen Steuerung der Entwicklung und des Einsatzes von KI-Systemen beim Militär ist wichtig. Aber verfehlt wird hier von vorneherein, dass eine wirksame ethische Begrenzung nur durch internationale Vereinbarungen erreicht werden kann. Das sind und werden Empfehlungen bleiben, die schnell gebrochen werden, sofern sie überhaupt mehr als ein Feigenblatt sind. Dass der Board, das ist natürlich sein "Sinn", eine Ethik nur angedacht hat, die die Überlegenheit des US-Militärs sichern soll, ist kaum ethisch zu nennen, wenn nicht übergreifend gedacht wird. Das Fehlen von solchen Überlegungen und Empfehlungen disqualifiziert die vorgelegten Prinzipien und macht sie zu einer Luftnummer. (Florian Rötzer)