Sollte die Entwicklung von Sexrobotern verboten werden?

Repliee Q2. Bild: Max Braun/CC BY-SDA-2.0

Die Diskussion gleicht der über autonome Kampfroboter, die ebenfalls ein Scheingefecht darstellt

Während man in der Rüstungsindustrie und beim Militär auf die Entwicklung und den Einsatz von autonomen Systemen setzt, warnen Kritiker vor autonomen Kampf- oder Killerrobotern. Im Rahmen der "Konvention über das Verbot oder die Beschränkung des Einsatzes bestimmter konventioneller Waffen, die übermäßige Leiden verursachen oder unterschiedslos wirken können" (CCW), wird seit zwei Jahren über eine Ächtung von autonomen Kampfsystemen (Lethal autonomous weapons systems - LAWS) diskutiert, wie dies zuvor nicht sonderlich wirksam für Landminen, Brandwaffen, Laserwaffen oder Streumunition gemacht wurde.

Die 2013 von Organisationen wie Human Rights Watch, Article 36 oder International Committee for Robot Arms Control gegründete Kampagne zum Stopp von Killerrobotern hat diese Diskussion mit angeschoben. Dafür konnten viele prominente Mitstreiter gewonnen werden, selbst viele KI-Forscher schlossen sich der Kampagne an. Anlass war der Drohnenkrieg, der von den USA geführt und von Barack Obama ausgeweitet worden war, und eine Direktive des Pentagon aus dem Jahr 2012, in der deutlich auch die Entwicklung von autonomen Kampfsystemen gesetzt wurde:

The design, development, acquisition, testing, fielding, and employment of autonomous and semi-autonomous weapon systems, including guided munitions that can independently select and discriminate targets.

The application of lethal or non-lethal, kinetic or non-kinetic, force by autonomous or semi-autonomous weapon systems.

Pentagon Direktive

Auch wenn sich viele Staaten der Diskussion nicht verweigern, darunter auch die USA, China, Russland und die europäischen Länder, haben sich bislang nur 19 Länder wie Peru, Panama, Venezuela für ein Verbot von autonomen Kampfrobotern eingesetzt, die technisch und militärisch wenig mit der Entwicklung von diesen zu tun haben. Als Erfolg gilt nun, dass gerade auf der Fünften Überprüfungskonferenz der CCW eine Gruppe von Regierungsexperten beschlossen wurde, die den weiteren Vorgang der Diskussion formalisieren sollen und sich 2017 für zwei Wochen treffen werden.

Die Kampagne will ein präventives Verbot der Entwicklung, Produktion und Verwendung auf internationaler Ebene durchsetzen, bevor die ersten autonomen Kampfsysteme vorhanden sind. Man sei besorgt über Waffen, "die selbst ohne wirkliche menschliche Kontrolle handeln", heißt es. Man will verbieten, dass der Mensch keinen Einfluss mehr auf Ziel- und Angriffsentscheidungen hat. Man kann sich allerdings fragen, ob dieser Schritt nicht schon zu spät kommt, denn was macht es für einen Unterschied, ob ein Menschen noch die Tötung durch ein halbautonomes System wie eine Drohne bestätigen muss oder die auch von diesem zu befolgenden Einsatzregeln von einem KI-Programm ausgeführt werden? Für das Opfer ist es egal, zudem handeln Menschen oft irrational, hassgetrieben und unmoralisch. Ronald Arkin ist hier einer der wenigen, der sich traut zu sagen, dass womöglich KI-Systeme moralischer handeln könnten als Menschen.

Man hat den Eindruck, dass die Kritiker hier eine anthropozentrische Sicht aufrechterhalten wollen, als ob die Welt, in der Menschen Menschen jagen und töten irgendwie "humaner" wäre, selbst wenn sie nur noch irgendeinen Knopf dabei drücken oder mit Stimme bzw. Blick einen Befehlt geben. Befördert wird durch solche Kampagnen auch die Vorstellung von einem "humanen" Krieg, der dann sauberer und ethischer sein soll, als wenn Maschinen die blutige Arbeit ausführen. Befördert werden damit letztlich weitgehend autonome Systeme, bei denen letztlich nur noch pro forma ein Mensch eingebunden, on the loop, ist, wie das derzeit auch bei autonomen Fahrzeugen ist.

Abstrus erscheint es, mit dem Verbot einer Waffe die Kriegsführung humaner machen zu wollen, anstatt die Kriegsführung selbst noch stärker zu regulieren oder zu verhindern. Dazu kommt selbstverständlich, dass im Unterschied zu großen und komplexen Waffensystemen, die nur selten in die Hände von Aufständischen oder Extremisten geraten, wie dies nun beim IS oder anderen militanten Gruppen in Syrien der Fall ist, autonome Kampf- oder Angriffsroboter ähnlich wie kleinere Drohnen von allen Interessierten verwendet werden können.

Zwar hat der IS in der Schlacht um Mossul auch schon mit Drohnen experimentiert, die mit Sprengstoff beladen wurden, aber es liegt auf der Hand, dass eher früher oder später Terroristen ferngesteuerte oder auch autonome Systeme einsetzen werden, um Anschläge auszuführen, die jetzt noch einen Selbstmordattentäter benötigen. Auch hier würde ein Verbot der Entwicklung, Produktion und Verwendung von autonomen Systemen, an denen im zivilen Bereich weiter geforscht wird und die auch von Regierungen gewünscht wie bei autonomen Autos oder Drohnen möglichst schnell in der Standortkonkurrenz verwendet werden sollen, nichts nützen. Ein autonomes Auto muss schließlich nur mit Sprengstoff vollgepackt werden, um zu einer autonomen Waffe zu werden, die zu beliebigen Zielen geschickt werden kann. Schon seltsam, dass solche Überlegungen kaum aufkommen. Schizophren ist, dass mit der Terrorangst eine Vielzahl von Maßnahmen der Überwachung und der Einschränkung der Bürgerrechte eingefordert wird, während man gleichzeitig die Entwicklung autonomer Systeme technisch weitertreibt.

Anzeige