Menü

Militärroboter: Wenn Terminatoren Terroristen jagen

Terminator IRL

Den wohlwollenden Blick auf Roboter im Kino bei gleichzeitiger Skepsis gegenüber autonomen Waffensystemen teilt Lauster mit André Haider vom Joint Air Power Competence Centre der Nato. Mit ihm konnten wir am Rande der Tagung über Terminatoren auf der Leinwand und in realen Kriegseinsätzen sprechen.

heise online: Herr Haider, was genau ist das "Joint Air Power Competence Centre" der Nato, bei dem Sie beschäftigt sind?

André Haider: Das JAPCC ist ein sogenanntes Centre of Excellence der Nato. Die Nato hat vor etwas über zehn Jahren festgestellt, dass sie Institutionen braucht, die sich mit Erfahrungen aus Einsätzen und mit militärischen Problemen auf wissenschaftliche Weise und unabhängig beschäftigen. Wenn Sie in der militärischen Hierarchie stehen, können Sie Ihre Meinung selten ungezwungen oder unbeeinflusst äußern. Die Centres of Excellence, von denen wir 2005 das erste waren, sollen diese Freiheit schaffen und sogar ausdrücklich andere Sichtweisen vertreten und zur kritischen Diskussion auffordern.

André Haider vom Joint Air Power Competence Centre der Nato: "Natürlich wollen wir eine solche Maschine, die Entscheidungen über Leben und Tod trifft, nicht haben."

So bin ich zwar Angehöriger der Bundeswehr, bin aber für meine derzeitige Tätigkeit an die NATO abgestellt. Das JAPCC beschäftigt sich mit dem gesamten Bereich der Luftkriegsführung, wozu mittlerweile auch der Weltraum und die Cyber Security gehören. Unsere Aufgabe ist es, unabhängige, ergebnisoffene Studien zu erstellen, entweder auf Anfrage eines NATO Mitgliedsstaates oder auch in Eigeninitiative sofern wir ein aus unserer Sicht dringliches Problem addressieren wollen.

heise online: Sie hatten nebenbei eine Bemerkung fallen lassen, wonach der Film "Terminator" sich dichter an der Realität bewegt, als allgemein angenommen wird. Das hat mich dann doch etwas überrascht, denn unter zivilen wie militärischen Robotikfachleuten werden diese Hollywood-Visionen in der Regel eher gehasst. Wie kommen Sie zu Ihrer Einschätzung?

Haider: Wir haben jetzt eine Studie zur zunehmenden Automatisierung von Waffensystemen angefertigt. Dabei geht es vorrangig um Drohnen, aber Automatisierung findet natürlich auch in vielen anderen Bereichen statt. Die Aufgabe war, herauszufinden, ob autonome Waffensysteme mit dem Völkerrecht vereinbar sind oder hierzu in Konflikt stehen, weil vielleicht irgendwann ein selbstständiger Roboter eine Entscheidung über Leben und Tod treffen könnte.

In dem Zusammenhang haben wir uns auch die öffentliche Meinung zu den moralischen und ethischen Aspekten des Themas angeschaut und sind natürlich sehr schnell bei Filmen wie "Terminator" gelandet. In der öffentlichen Wahrnehmung wird der Terminator ja als eine völlig außer Kontrolle geratene Maschine dargestellt, die nicht mehr beherrschbar ist und Tod und Vernichtung bringt. Aber wenn man sich den Film einmal aus einer völlig anderen Perspektive anschaut, nämlich dergestalt, dass der vom Roboter gejagte John Connor ein international gesuchter hochrangiger Terrorist wäre, sieht die Sache plötzlich anders aus und der Film erhält eine völlig neue Dimension.

Die Nato-Allianz tut ja nichts anderes: Wir jagen Terroristen. Wir versuchen, gezielt diejenigen Individuen auszuschalten, die in der terroristischen Hierarchie weit oben stehen. Wir wollen der Schlange den Kopf abschlagen, um die Strukturen zu Fall zu bringen. Militärisches Vorgehen ist heute tatsächlich oftmals Jagd auf ein Individuum. Das geschieht vorrangig mit unbemannten Luftfahrzeugen oder Drohnen, mit denen Gebiete überwacht und die Verhaltensweisen einzelner Zielpersonen aufgeklärt werden, die in letzter Konsequenz auch gezielt getötet werden sollen – sagen wir das ruhig so direkt, ich denke ein offener und ehrlicher Sprachgebrauch in diesem Bereich täte uns allen gut.

Durch die Langzeitaufklärung des Ziels und das hierdurch erkennbare "Pattern of Life" kann ein gezielter Angriff erfolgen und Kollateralschaden minimiert, bestenfalls ausgeschlossen werden. Arnold Schwarzenegger als Terminator agiert nicht anders. Er rastet ja nicht aus, sondern verfolgt ein klar vorgegebenes Ziel, nämlich John Connor zu töten, und geht dabei – zumindest anfänglich – sehr strukturiert vor. Lassen wir das Effektkino einmal außer Acht, folgt er teilweise sogar den Prinzipien des Völkerrechts, sein legitimes Ziel – den angenommenen Terroristen Connor – auszuschalten und dabei Kollateralschaden möglichst zu minimieren oder auszuschließen. Es gibt sogar Szenen, in denen er durch Erfragen des Names versucht die Identität seines Ziels zu verifizieren, bevor er es liquidiert.

Natürlich wollen wir eine solche Maschine, die Entscheidungen über Leben und Tod trifft, nicht haben. Die technischen Entwicklungen zielen heute darauf ab, so viel Autonomie wie möglich zu erreichen, um den Menschen zu entlasten, auch bei Waffensystemen, aber die letzte Entscheidung über das Abfeuern einer Waffe und das Töten eines Menschen, hat der Soldat persönlich treffen. Innerhalb der Nato-Staaten ist das Konsens.

heise online: Kann man diese Grenze wirklich so klar ziehen? Lassen Sie mich ein anderes Filmbeispiel nennen: Im Juli 1987 kam der Film "RoboCop" in die amerikanischen Kinos. Im darauf folgenden Frühjahr trat der Kreuzer "USS Vincennes" seinen Dienst im Persischen Golf an, eines der ersten Schiffe, das mit dem automatischen Verteidigungssystem Aegis ausgestattet war. Wegen dieser Ausrüstung und dem aggressiven Auftreten des Kommandanten bekam das Schiff rasch den Namen "RoboCruiser" – und wurde ihm auf tragische Weise gerecht, als es eine iranische Passagiermaschine fälschlicherweise als Bedrohung identifizierte und abschoss. Den Befehl dazu gab der Kommandant, aber ist dieses Unglück nicht letztlich Folge eines fatalen Zusammenspiels von Mensch und Maschine? Schleicht sich die maschinelle Intelligenz nicht nach und nach in die vermeintlich menschlichen Entscheidungen ein?

Haider: Den Vorfall kenne ich nicht im Detail. Aber das Aegis-System muss im Friedensbetrieb durch einen menschlichen Bediener ausgelöst werden. Es kann in einen vollautomatischen Betrieb versetzt werden, z.B. wenn ein offener Konflikt vorliegt, Freund und Feind klar definiert sind und sich keine zivilen Maschinen im gesperrten Luftraum befinden. Das System erkennt anhand der ballistischen Flugbahn die auf das zu schützende Schiff anfliegende Geschosse und wird dann ohne Zutun des Bedieners feuern. Der Bediener wechselt von der Rolle des Autorisierenden zu der des Übersteuernden, der einen Angriff dann nur noch abbrechen kann. Es geht hier um Reaktionszeiten von wenigen Sekunden, die einen Menschen schlichtweg überfordern. Dennoch trägt der Mensch weiterhin die Verantwortung. Der Kommandant hat ja autorisiert, dass das System in den automatischen Modus versetzt wurde.

Anzeige
Zur Startseite
Anzeige