Autonome militärische Systeme ersetzen zunehmend menschliche Entscheidung

Kampfdrohne X-47B. Bild: DoD

Nach einem Bericht über die weltweite Entwicklung von autonomen Systemen für das Militär sind neben den USA, Russland und China auch Frankreich und Deutschland führend

Aus dem Pentagon hört man die Versicherung, dass man zwar zunehmend auf autonome Systeme setze, aber sie sollen nicht wirklich autonom sein. Niemals, sagte vor kurzem Verteidigungsminister Ash Carter werde das Pentagon Kampfroboter einsetzen, die ohne "man in the loop" selbständig entscheiden, ob sie feuern oder nicht. Und auch in der "Third Offset Strategy" wird betont, autonome Systeme kämen vor allem im Cyberbereich in Frage, ansonsten gehe es primär um die Entwicklung und Verbesserung der Schnittstellen (US-Verteidigungsminister: "Niemals" volle Autonomie für Kampfroboter).

Anzeige

Eine solche Schnittstelle ist etwa der Plan, bemannte F-35-Kampfflugzeuge von unbemannten F-16 begleiten zu lassen, die vom Piloten gesteuert werden können, um Angriffe abzuwehren oder effektiver angreifen zu können. Vorerst wurden ausgemusterte F-16 zu unbemannten Flugzeugen umgebaut und dienen als Zielobjekte für das Training.

Die wahrscheinlich zur Beruhigung der Öffentlichkeit und der eigenen Truppen dienenden Versicherungen, die Autonomie nicht zu weit treiben und Soldaten durch Roboter ersetzen zu wollen, wird von einem Bericht aber hinterfragt. Das Pentagon treibe die Entwicklung der Künstlichen Intelligenz voran, um tatsächlich nicht nur Menschen als Akteure, sondern zunehmend auch die menschliche Entscheidungsfindung zu ersetzen.

Der Bericht wurde vom Future of Life Institute finanziert, das von Elon Musk, Gründer der Raumfahrtfirma SpaceX und des eAuto-Herstellers Tesla finanziert wird, der zwar eine bemannte Fahrt zum Mars verwirklichen will, aber vor autonomen Systemen warnt und mit der 2015 gegründeten Forschungsinstitution OpenAI der Frage der "existenziellen Bedrohung durch künstliche Intelligenz" nachgehen und "sichere KI" herstellen will.

Verfasst wurde der Bericht von Heather Roff (Global Security Initiative ASU) und Richard Moyes, Direktor von britischen Organisation Article 36. Es handelt sich um den Versuch, weltweit unter Heranziehung aller möglichen Quellen eine Bestandsaufnahme über die Entwicklung von autonomen Waffensystemen zu machen. Die wichtigsten Akteure sind nach dem Bericht in der Reihenfolge: die USA, Russland, China, Frankreich und Deutschland. Aufgeführt und beschrieben werden 284 Systeme, die bereits teilweise autonom agieren können.

Unter einer vollen Autonomie verstehen die Autoren Systeme, die sich unabhängig in der Umwelt zu beliebigen Orten hin bewegen können, die Ziele in ihrer Umgebung auswählen und auf sie feuern können und die ihre Ziele erzeugen und verändern können, inklusive der Beobachtung ihrer Umgebung und der Kommunikation mit anderen Agenten. Ein "voll autonomes" System würde viele der Eigenschaften besitzen müssen, wäre allerdings weit davon entfernt, eine menschenähnliche Intelligenz zu besitzen. Die Systeme sind in aller Regel Raketen, die wichtigste Kapazität ist die Abschusskontrolle. Hier wird unterschieden:

  1. Das System kann selbst nicht schießen, dies muss ein Mensch machen oder ein Mensch wird nur informiert;
  2. das System informiert einen Menschen und wartet auf das Kommando, das Feuern zu beginnen, oder der Mensch wählt das Ziel aus und feuert;
  3. das System ist so eingestellt, dass es auf ein Ziel feuert, wenn ein Mensch es nicht stoppt;
  4. das System schießt ohne menschliche Einwirkung.

Die meisten der existierenden oder in der Entwicklung befindlichen Systeme können allerdings "nur" nach Abschuss den Weg zu ihren vorgesehenen Zielen finden. Das gebe es zwar bereits seit einigen Jahrzehnten, sei aber der Ausgang vieler neuerer KI-Entwicklungen. Neben der Self-Mobility unterscheiden die Autoren noch Self-Direction, also die Erkennung und Auswahl von Zielen, sowie Self-Determination, d.h. die Fähigkeit, Ziele zu setzen und zu verändern, was eine gewisse Möglichkeit beinhaltet, Entscheidungen treffen zu müssen.

Anzeige

Drohnen wie nEUROn (EU), X-47B (USA) oder Taranis (UK), die über einem Gebiet schweben (loiter), Objekte auf dem Boden mit einer Datenbank vergleichen und ein Ziel markieren, wenn eine Übereinstimmung gefunden wurde, würden unter Self-Direction fallen. Das wird als die neue Front der Autonomie bezeichnet, da hier nicht ein vorgegebenes Ziel gesucht wird, sondern nach vielen Zielen gesucht und wie ein Jäger gewartet wird, bis eines von diesen entdeckt wird. Das sei bislang nur in wenigen Waffensystemen eingebaut, die Technik sei aber ein stark erforschtes Gebiet.

Vor allem werde derzeit gesucht, die Möglichkeiten der Zielidentifizierung zu verbessern, Freund und Feind zu unterscheiden und Lernen zu fördern: "Systeme müssen während des Einsatzes in der Lage sein, sich anzupassen, zu lernen und Pläne zu verändern oder zu aktualisieren. Kurz: Die Systeme müssen mehr Dinge und ungenauere Aufgaben ausführen können."

.

Autonomie werde derzeit nicht entwickelt, "um neben Menschen auf dem Schlachtfeld zu kämpfen", sagt Heather Roff, "sondern um sie zu ersetzen. Dieser Trend wird stärker, besonders für Drohnen, wenn man Waffen in der Entwicklung untersucht." Bei Drohnen spielt für den Trend zur Autonomie eine wesentliche Rolle, dass sie auch gegen Länder einsetzbar sein sollen, die mit Luftabwehrsystemen hoch fliegende Drohnen erkennen und abschießen können. Wichtig wird daher die Eigenschaft, unentdeckt vom gegnerischen Radar und ohne verräterische Steuerungsbefehle fliegen zu können, allerdings sollte es in der Lage sein, mit anderen Systemen bei Bedarf zu kommunizieren und Zielvorgaben zu verändern.

Nach Roff ist die Stealth-Eigenschaft gegenwärtig eine primäre Motivation, autonome Systeme zu entwickeln. Dabei müssen nicht die großen Staaten mit den meisten Ressourcen wie die USA, Russland oder China die Nase vorne haben. Wenn Regionalmächte den Einsatz von solchen Systemen vorantreiben, sei dies nicht gerade stabilisiernd, meinen die Autoren. "Regionalmächte mit größeren Kapazitäten in der Entwicklung autonomer Waffensysteme wie Israel", so Roff, "können durch deren Einsatz oder durch den Export an andere Staaten eine Region destabilisieren."

Aber, wie Patrick Tucker in Defenseone schreibt, kommt der destabilisierende Effekt vor allem dann zur Geltung, wenn die eine Seite autonome Systeme einsetzt, die schneller Entscheidungen treffen kann, weil kein Mensch mehr am Entscheidungsprozess beteiligt ist. Hier nicht mitzumachen, sei moralisch achtbar, könne aber in einen strategischen Nachteil umschlagen, wenn ein Gegner sich darum nicht schert. Tucker verweist auf den Hochfrequenzhandel, bei dem die Menschen, weil zu langsam, bereits außen vor sind. (Florian Rötzer)

Anzeige