Menü

ICRAC: Rüstungskontrolle für Kampfroboter

Von
vorlesen Drucken Kommentare lesen 84 Beiträge

Einige hassen ihn, andere bewundern ihn, an ihm vorbei kommt aber keiner: Der Terminator war stets präsent, als sich 40 Wissenschaftler für drei Tage in einem Seminarraum der Berliner Humboldt-Universität versammelten, um über Militärroboter zu diskutieren. Eingeladen hatte das International Committee for Robot Arms Control (ICRAC). Es war der erste Workshop des vor einem Jahr von vier Wissenschaftlern aus Großbritannien, Australien, Deutschland und den USA gegründeten Komitees, das eine breite internationale Diskussion über Militärroboter und Vereinbarungen zu ihrer Kontrolle einfordert. Gekommen waren Politikwissenschaftler, Informatiker, Friedensforscher und Philosophen – und das Verhältnis zu der von Arnold Schwarzenegger verkörperten Filmfigur eines Kampfroboters war nicht die einzige Frage, bei der ihre Positionen auseinander lagen.

Sie stand allerdings nicht im Mittelpunkt der Diskussionen. Denn motiviert ist das Anliegen des ICRAC nicht durch fiktive Hollywoodszenarien, sondern durch die nackte Realität. Auf 1114 bis 1712 werde die Zahl der Opfer geschätzt, die zwischen 2004 und dem 15. September 2010 durch Drohnen getötet wurden, sagte Noel Sharkey, einer der Gründer des Komitees, in seinem Einführungsvortrag. Diese fliegenden Roboter werden von Menschen ferngesteuert. Der Professor für künstliche Intelligenz und Robotik von der University of Sheffield betonte aber, dass es allein schon wegen der Verletzlichkeit der Funkverbindung über Satelliten einen Entwicklungsdruck hin zu mehr Autonomie gebe.

Sharkey steht mit dieser Einschätzung nicht allein. So rechnen Planer des US-Verteidigungsministeriums für die Dekade zwischen 2030 und 2040 mit unbemannten Flugzeugen, die in der Lage sind, andere Flugzeuge zu bekämpfen. Weil sie keine Rücksicht auf den menschlichen Körper nehmen müssen, sind sie zu Flugmanövern in der Lage, bei denen Kräfte bis zum 40 G auftreten. Allein das macht sie jedem bemannten Gegner überlegen. Der Luftkampf bringt jedoch auch die Fernsteuerung an ihre Grenzen. "Wegen der großen Zahl von Entscheidungen in kurzer Zeit" hingen Fortschritte beim Waffeneinsatz "von der Entwicklung immer größerer Autonomie" ab, heißt es in der "Unmanned Aircraft Systems Roadmap 2005-2030" (PDF-Datei) nüchtern.

Noch gibt es die autonom feuernden Militärroboter nicht. Aber die Vision hat die Science-Fiction-Romane und Drehbücher verlassen und Eingang in militärische Konzepte gefunden. Ob die Entwicklung am Ende langsamer oder schneller verläuft als erwartet – der Weg hin zu bewaffneten autonomen Robotern ist beschritten. Für die Teilnehmer des Berliner Workshops war das Grund genug, aktiv zu werden.

Allerdings: Was genau bedeutet Autonomie? Diese Frage stand noch häufiger im Raum als der Terminator. Beim Einschalten ihres Computers würden Prozesse in Gang gesetzt, die sie nicht bemerke und auf die sie keinen Einfluss habe, bemerkte eine Teilnehmerin. Aber handelt der Rechner deswegen autonom? Führt er nicht eher vom Menschen vorgeschriebene Programme aus? Auch ein autonomer Roboter folgt letztlich seiner vom Menschen entwickelten Programmierung, führt dessen Befehle aus. Das gilt jedoch auch für menschliche Soldaten, die in eine militärische Kommandostruktur eingebunden sind – sie sind einem Computerprogramm dann gar nicht so unähnlich.

Menschen können sich im Unterschied zu Robotern bei ihrem Handeln an ethischen Kriterien orientieren, stoßen damit unter Gefechtsbedingungen jedoch oft an Grenzen. Einige Wissenschaftler beschäftigen sich daher mit der Frage, ob Roboter zukünftig auch mit Ethik ausgestattet werden könnten, der sie dann womöglich konsequenter folgten als Menschen. Ron Arkin erforscht diesen Aspekt der Militärrobotik am Georgia Institute of Technology. Selbst wenn es gelingen sollte, eine solche maschinelle Ethik zu implementieren, erwartet aber auch Arkin nicht, das menschliche Soldaten komplett durch Roboter ersetzt werden könnten, sondern sieht deren Einsatz eher in speziellen Situationen, etwa im Kampf gegen Scharfschützen oder bei der Durchsuchung von Räumen.

Wendell Wallach von der Yale University, der gemeinsam mit Colin Allen (Indiana University, Bloomington) ein Buch zum Thema verfasst hat, gab zu bedenken, dass eine Zunahme der Autonomie auf Seiten des Roboters oft auch eine höhere Verantwortung des Operators mit sich bringe. Er bezog sich auf die Forderung, dass immer ein Mensch in der Entscheidungsschleife sein solle, und nannte das Beispiel eines Roboters, der einen Scharfschützen identifiziert, woraufhin der Mensch den Feuerbefehl gibt. "Wer befindet sich hier in wessen Schleife?", fragte er provozierend.

Tatsächlich wird Autonomie bei Militärrobotern nicht plötzlich ein- oder ausgeschaltet, sondern dringt nach und nach in das gesamte militärische Netzwerk ein. Auch bei den Einsätzen der Predator- und Reaper-Drohnen verlassen sich die oft mehrere tausend Kilometer entfernten Bediener auf die von den Flugrobotern übermittelten Daten.

Götz Neuneck vom Institut für Friedensforschung und Sicherheitspolitik (IFSH) der Universität Hamburg befürchtet, dass durch die zunehmende Automatisierung und Netzwerkzentrierung moderner Kriegsführung die Schwelle zum Krieg gesenkt wird. Politische Lösungen könnten übersehen und vermehrt asymmetrische Reaktionen provoziert werden. Niklas Schörnig von der Hessischen Stiftung Friedens- und Konfliktforschung (HSFK) sieht ebenfalls das Risiko einer Verschärfung asymmetrischer Konflikte durch den Einsatz von Roboterwaffen. Langfristig könne die Automatisierung zu einer Destabilisierung der Sicherheitslage führen. Er empfahl eine Demystifizierung dieser Waffensysteme und eine Verbesserung der öffentlichen Wahrnehmung.

Einen wichtigen Schritt in diese Richtung unternahm der Berliner Workshop mit der Verabschiedung einer Erklärung zu bewaffneten Robotersystemen, in der ein Verbot autonomer Kampfroboter und Beschränkungen bei ferngesteuerten gefordert werden. Welchen kurzfristigen Nutzen diese Waffensysteme auch immer haben mögen, er werde aufgewogen von den langfristigen Risiken, heißt es darin. Die Erklärung soll auf der ICRAC-Homepage veröffentlicht werden. Sie kann per Unterschrift unterstützt werden und soll eine Grundlage für die weitere Debatte bieten. (Hans-Arthur Marsiske) / (pmz)

Anzeige
Anzeige