Über das Verhältnis von Mensch und Maschine bei Killerrobotern

Dass unbemannte Bodenfahrzeug Guardian, mit dem die israelischen Streitkräfte die Grenze zum Gazastreifen kontrollieren. Bild: IDF/CC-BY-SA-3.0

In Genf suchen Experten nach der richtigen Haltung gegenüber autonomen Waffensystemen

Vom 11. bis 15. April trifft sich beim Büro der Vereinten Nationen in Genf zum dritten Mal eine Expertengruppe, um im Rahmen der Convention on Certain Conventional Weapons (CCW) über autonome Waffensysteme zu beraten. Ein Ziel des "informellen Treffens" ist es, Empfehlungen für die fünfte Überprüfungskonferenz des UN-Waffenübereinkommens zu erarbeiten, die für den 12. bis 16. Dezember in Genf geplant ist.

Während beim letzten Expertentreffen die Bedenken gegen autonome Waffensysteme zusammengetragen und in einem Protokoll festgehalten wurden, soll nun also zumindest in einigen Punkten ein Konsens gefunden werden. Hierfür hat Michael Biontino, ständiger Vertreter der Bundesrepublik Deutschland bei der Abrüstungskonferenz in Genf, im Vorfeld ein "Food for Thought"-Dokument verschickt, das helfen soll, Themen zu identifizieren. Angelehnt an die Programmstruktur des Treffens steht dort, gewissermaßen als Aufwärmübung, die Frage nach bisherigen Erfahrungen mit nationalen Regelungen zu autonomen Waffensystemen. Auch wichtige Entwicklungen des vergangenen Jahres bei autonomen Systemen allgemein sollten abgeklärt werden.

Dann geht es an die eigentlichen Herausforderungen: Was genau ist eigentlich gemeint mit "autonom"? Lässt sich der Autonomiegrad eines Waffensystems messen? Welche Rolle spielt die Vorhersagbarkeit der Aktionen eines solchen Systems? Auch der Begriff "meaningful human control", der in den Diskussionen immer wieder genannt wird, bedarf der Klärung: Wenn etwa ein Waffensystem dem Operator Daten präsentiert, die ihm keine andere Wahl lassen, als den Feuerbefehl zu erteilen, ist nicht ohne weiteres erkennbar, ob wirklich der Mensch die Maschine kontrolliert oder umgekehrt.

In einem vorab eingereichten "informal working paper" bemerkt die Schweiz, dass die Diskussionen um Autonomie sich bislang einerseits auf die Zielauswahl und -bekämpfung ohne menschliches Zutun, andererseits auf Mensch-Maschine-Interaktion und den Grad menschlicher Kontrolle konzentriert hätten. Es sei zu früh, eine Linie zwischen wünschenswerten, akzeptablen und inakzeptablen Systemen zu ziehen. Die Diskussion solle daher keine Aspekte ausschließen und sich auch nicht ausschließlich auf tödliche Waffensysteme beschränken.

Vor diesem Hintergrund wird als Arbeitsdefinition für "Lethal Autonomous Weapon Systems" (LAWS) vorgeschlagen: "Waffensysteme, die in der Lage sind, vom humanitären Völkerrecht gedeckte Aktionen mit Gewaltanwendung, insbesondere Zielerfassung und -verfolgung, im teilweisen oder vollständigen Ersatz eines Menschen durchzuführen." Im Lauf der Diskussionen könne diese Definition dann weiter präzisiert werden.

Kanada fasst in einem Beitrag den gegenwärtigen Stand autonomer Systeme im zivilen und militärischen Bereich zusammen und stützt sich dabei auf eine sehr pragmatische Definition: "Je weniger Hilfe ein System benötigt, desto autonomer scheint es zu sein." Autonomie beziehe sich demnach vorrangig auf Navigation, entwickle sich kurzfristig im zivilen Sektor schneller als im militärischen und sei für fliegende und schwimmende Systeme leichter zu realisieren als für Bodenfahrzeuge.

In einem weiteren Diskussionsbeitrag empfiehlt Kanada, den Kontext stärker zu beachten, in dem autonome Waffensysteme zum Einsatz kommen könnten. Für das Verständnis politischer und humanitärer Konsequenzen sei zum einen das operative Umfeld wichtig: In einer städtischen Umgebung etwa seien mehr Zivilisten betroffen als bei Kämpfen in der Luft oder auf dem Meer. Zudem sei die Kommunikation je nach Einsatzgebiet unterschiedlich gut zu gewährleisten, könnten beschädigte Systeme mehr oder weniger gut geborgen oder Feindberührungen vorhergesagt werden.

Zweitens müsse der geopolitische Kontext berücksichtigt werden. Was während eines Krieges als Verteidigungsmaßnahme gerechtfertigt sein mag, könne während einer Krise zur Eskalation beitragen, insbesondere wenn autonome Waffensysteme der streitenden Parteien in unerwarteter Weise miteinander interagierten.

Drittens fordern die Kanadier, zwischen verschiedenen Waffentypen, deren Gebrauch und den Zielen zu differenzieren. Ein einzelner Schuss gegen ein materielles Objekt sei etwas anderes als der Einsatz eines mit mehreren Waffen ausgestatteten LAWS gegen Menschen, die im Gelände verstreut sind.

Am vielleicht wichtigsten sei jedoch das Verhältnis von Mensch und Maschine, das wiederum selbst vom jeweiligen Kontext abhänge. So würde wahrscheinlich die Maschine in Verteidigungssituationen mehr Aufgaben übernehmen als im Angriff. Die Möglichkeit, Entscheidungen des Waffensystems durch den menschlichen Operator zu revidieren, würde durch das Einsatzgebiet und die Stabilität der Kommunikationsverbindung beeinflusst.

Abschließend geben die Kanadier zu bedenken, dass es grundsätzlich unmoralisch sein könnte, Entscheidungen über Leben und Tod einer Maschine zu überlassen, selbst wenn sie effektiver als Menschen zivile Verluste eingrenzen könnte.

Ein weiterer Fragenkomplex auf dem Programm des Treffens betrifft das humanitäre Völkerrecht. Im Mittelpunkt steht dabei Artikel 36 des Zusatzprotokolls 1 zur Genfer Konvention vom 12. August 1949, der die Einführung neuer Waffen oder Methoden der Kriegführung regelt.

Angesichts des heutigen Standes von Robotik und KI, so die Argumentation der Schweiz zu diesem Aspekt, sei ein autonomes Waffensystem, das vollständig entsprechend den Regeln des humanitären Völkerrechts handelt, schwer vorstellbar. Die Frage sei daher nicht, ob Staaten die Pflicht hätten, Entwicklung und Einsatz solcher Systeme zu kontrollieren und zu beaufsichtigen, sondern wie dies definiert und umgesetzt werden könne. Reicht es aus, so ein System sorgfältig zu programmieren und umfassend zu testen? Vielleicht muss es auch permanent überwacht werden, sodass ein Mensch notfalls jederzeit die Kontrolle übernehmen kann.

Kommandeure seien nicht verantwortlich für kriminelle Taten ihrer Untergebenen, wohl aber verantwortlich dafür, solche Taten möglichst zu verhindern. Sie mögen zukünftig in ähnlicher Weise für autonome Waffensysteme verantwortlich sein. Staaten könnten ihrer Verantwortung durch den Einsatz autonomer Waffensysteme jedenfalls nicht entkommen.

Die Schweizer schlagen vor, zunächst einmal die existierenden Systeme mit beschränkter Autonomie darauf zu überprüfen, inwieweit sie den Regeln des humanitären Völkerrechts entsprechen und daraus auf zukünftige Systeme mit höherer Autonomie zu schließen. Zweitens gehe es darum, das internationale Recht zu präzisieren. Im Kern gehe es um die Frage: "Wie muss die Mensch-Maschine-Interaktion beschaffen sein, um im Einklang mit dem humanitären Völkerrecht zu sein?"

Japan erklärt in einem kurzen Beitrag, dass das japanische Verteidigungsministerium nicht plane, Roboter zu entwickeln, die ohne menschliche Kontrolle "Morde begehen" können. Besonderen Wert legen die Japaner jedoch auf den Aspekt des Dual Use. Die Entwicklung autonomer Systeme im zivilen Bereich müsse in den Diskussionen ständig mitbedacht werden. Die Entwicklung friedlicher und vernünftiger Roboter müsse gewährleistet sein, indem man sich auf Erfahrungen mit anderen Dual-Use-Technologien stützt.

Tatsächlich scheint die Entwicklung der zivilen Robotik entscheidend dazu beizutragen, dass Bewegung in die Diskussionen über Militärroboter kommt. Insbesondere die Herausforderungen, die autonome Fahrzeuge für etablierte ethische Normen und Rechtssysteme bedeuten, schärfen das Bewusstsein für das gesellschaftsverändernde Potenzial künstlicher Intelligenz generell.

Teilnehmer der Genfer Expertentreffen berichten denn auch von einer Lockerung der bisherigen Blockadehaltung auf Seiten Großbritanniens und der USA. Offenbar erkennen mittlerweile auch politische und militärische Entscheidungsträger auf höheren Ebenen, dass das Rad an dem sie drehen, erheblich größer ist, als sie bisher wahrhaben wollten. Es wäre ein Novum, wenn ein Waffensystem durch internationale Regelungen erfasst würde, bevor es technisch realisiert ist. Aber es ist im Falle der autonomen Kampfroboter nicht ausgeschlossen, dass es passiert.

Kommentare lesen (120 Beiträge)
Anzeige