Die autonomen Kampfroboter kommen

Noch entwickeln sich militärische Robotersysteme außerhalb aller internationaler Abkommen, das müsste sich dringend ändern

Noch sind die Kampfroboter nicht im Einsatz, die autonom, ohne Steuerung durch den Menschen, ihre Waffen auf Menschen richten und sie töten. Vorläufer sind die bewaffneten Drohnen und Robotfahrzeuge, die aus der Ferne bedient werden. Mit ihnen dürfte der Übergang geebnet werden, letztlich werden die Menschen an Robotsysteme gewöhnt, die sich selbständig zu bewegen und ihre Waffen einzusetzen scheinen (Bretton Woods II).

Waren die ersten Drohnenangriffe auf Menschen, die mit deren Bordwaffen von Tausenden von Kilometern entfernt vor ihren Bildschirmen sitzenden und mit Joysticks spielenden "Piloten" getötet wurden, noch Aufmerksamkeit, so werden durch den ersten ferngesteuerten Krieg, den die USA gegen Extremisten im pakistanischen Grenzland zu Afghanistan gestartet hat und weiter betreibt, die Berichte über die Einsätze spärlicher, was auf den Gewohnheitseffekt hinweist.

Mit Hellfire-Raketen bewaffnete Predator-Drohne in Afghanistan. Bild: USAF

Einen Übergang stellen bewaffnete und ferngesteuerte Roboter auch insofern dar, weil ihr Einsatz kein klassischer Kampfeinsatz mehr ist, aber auch nicht dem Bombardement mit Raketen gleicht. Mit den Kameras und Waffen auf den Drohnen versuchen die "Piloten", mutmaßliche Gegner gezielt zu töten. Es handelt sich um einen Angriff, der dem von Scharfschützen gleicht. Diese aber befinden sich noch in der Nähe des Kampfgeschehens, die Bediener der Roboter können aber völlig in Sicherheit sein, zumindest so lange der Gegner nicht ebenso hoch gerüstet ist und mit ähnlichen Waffen über große Entfernungen zurückschlagen kann. Überdies gleicht das Bedienen der Roboter und Waffen einem Computerspiel, wodurch sich die Grenzen zwischen Realität und Virtualität vermischen. Der Trend zu fernsteuerbaren Robotern verdankt sich nicht nur dem Umstand, dass die Bediener sicher sind und man das Risiko für die eigenen Soldaten vermeidet, getötet oder verletzt zu werden, die Systeme sind auch wesentlich billiger und meist müssen die Bediener auch weniger lang und kostspielig trainiert werden. Und ganz klar ist auch, dass die Schwelle zur Anwendung von tödlicher Gewalt durch ferngesteuerte und autonome Roboter weiter sinken wird. Intelligente Schussanlagen werden die Schwelle weiter senken (Kampfroboter zum Schutz von Grenzen, Flughäfen oder Pipelines).

Ob solche gezielte Tötungen durch Roboter vor Ort, die ferngesteuert werden, noch vom Kriegsrecht gedeckt sind, ist eine offene Frage, die aber kaum jemanden zu interessieren scheint. Schwierig auch zu entscheiden, ob autonome Kampfroboter, weil sie nicht mehr während des Einsatzes gesteuert werden, wieder eher einem klassischen Kampfeinsatz gleichen, nur dass sich nicht mehr Menschen, sondern Menschen und Roboter oder Roboter und Roboter gegenüberstehen. Müsste man beispielsweise Ethik (Einsatzregeln für Kampfroboter), als etwa das Kriegsrecht oder andere völkerrechtlich verbindlichen Abkommen, in die Künstliche Intelligenz einbauen, so dass sich Roboter lieber zerstören lassen, als Kriegsverbrechen zu begehen (Kampfroboter mit Moral)? Und wer ist für die Taten der Kampfroboter letztlich verantwortlich? Die Wissenschaftler, die die künstliche Intelligenz und die Verhaltensregeln entwickelt haben, oder die Militärs oder Geheimdienste, die sie einsetzen?

Obwohl an autonomen Roboter intensiv gearbeitet wird, zögert man den bewaffneten Einsatz noch hinaus. Vermutlich will hier niemand der erste sein, der die Schwelle überschreitet, bewaffnete Roboter auf Menschen hetzt und womöglich einen Kollateralschaden verursacht. Dass sie eines Tages nicht nur realisiert, sondern auch eingesetzt werden, steht jedoch außer Frage. Vielleicht spielen ja auch Terroristen, Aufständische oder Kriminelle die Pioniere des Roboterkrieges. Erstaunlich ist bei alldem freilich, dass das Thema, das keineswegs mehr der Science Fiction und einer entfernten Zukunft zuzurechnen ist, kaum wirkliche Aufmerksamkeit findet und Diskussionen auslöst.

Noel Sharkey, der Künstliche Intelligenz und Robotik an der University of Sheffield lehrt, versucht seit einiger Zeit, die öffentliche Aufmerksamkeit zu wecken. Über einige schnell aufleuchtende Schlagzeilen hinaus ist die Resonanz aber gering geblieben, vor allem auch bei den Wissenschaftlern und Ingenieuren, die in diesem Bereich arbeiten und sehr wohl wissen, dass die Vision vom autonomen Roboter auch die Existenz von autonomen Kampfrobotern bedeutet. Da spielt man natürlich lieber Roboterfußball, das macht Spaß und ängstigt die Menschen nicht. Immerhin wollen nun amerikanische Wissenschaftler einen Bericht veröffentlichen, der sich mit den Problemen von autonomen Systemen beschäftigt. Der Gedanke ist hier, lieber vorher einmal eine Diskussion zu führen, um dann still weiter arbeiten zu können, als plötzlich die Volksmeinung gegen sich zu haben (Bedrohen die Roboter Mensch und Gesellschaft?).

The next thing that's coming, and this is what really scares me, are armed autonomous robots. The robot will do the killing itself. This will make decision making faster and allow one person to control many robots. A single soldier could initiate a large scale attack from the air and the ground. It could happen now; the technology's there.

Noel Sharkey

Sharkey wies jüngst wieder darauf hin, dass schon Menschen in den neuen asymmetrischen Konflikten kaum mehr Kämpfer von Zivilisten unterscheiden können. Roboter werden dies noch viel weniger können. Das Risiko, dass Unbeteiligte bei Kampfeinsätzen von autonomen Robotern getötet werden, dürfte also hoch sein. Denkt man dann noch, dass Roboter ähnlich wie Soldaten nicht einzeln agieren, sondern in Schwärmen auftreten, deren Verhalten dann um so stärker autonom, ohne eine Menschen in der Schleife, koordiniert werden muss. Sharkey sagt, dass "internationale Diskussionen und Waffenabkommen" für autonome Roboter dringend notwendig seien, und stellt konsterniert fest, dass "absolut nichts" dergleichen geschieht. (Florian Rötzer)