Sind Roboter die besseren Soldaten?

Ron Arkin über die Ethik von Kampfmaschinen

Ron Arkin beschäftigt sich am Georgia Institute of Technology mit autonomen Militärrobotern. Er geht der Frage nach, ob Roboter im Kampfeinsatz ethisch konsequenter handeln könnten als Menschen. In Berlin nahm er am Workshop des International Committee for Robot Arms Control (ICRAC) teil. Dort wurde eine Erklärung verfasst, die fordert, Robotersysteme stärker der Rüstungskontrolle zu unterwerfen. In der Kaffeepause war Gelegenheit für ein paar Fragen.

Gehen Sie ab und zu ins Kino?

Ron Arkin: Ja, mit großem Vergnügen.

Haben Sie da Roboter gesehen, die Ihnen besonders gefallen haben?

Dazu muss ich zunächst sagen, dass ich mir Filme ausschließlich zur Unterhaltung ansehe. Mit meiner Forschung hat das nichts zu tun. Hollywood schadet der Forschung sogar eher, indem es völlig überzogene, unrealistische Erwartungen und Ängste nährt.

Nun befinden wir uns hier bei einem wissenschaftlichen Workshop, der über Rüstungskontrollen für Militärroboter berät. Völlig unbegründet scheinen die Ängste nicht zu sein.

Ron Arkin: Ich bestreite auch nicht, dass hier viele potenzielle Gefahren lauern. Grundlage für unsere Beratungen darüber sind aber internationale Verträge wie die Genfer Konvention, nicht Hollywood.

Menschen machen auf dem Schlachtfeld viele Fehler und verhalten sich oft grausam

Sie haben in einem Vortrag die Möglichkeit erörtert, dass Roboter bessere Soldaten sein könnten als Menschen. Das wirkt zunächst einmal wie ein Widerspruch zu den Zielen des Workshops. Der verfolgt das Ziel, die Entwicklung von Militärrobotern zu begrenzen.

Ron Arkin: Das ist kein Widerspruch. Es geht darum, zusätzliche Anforderungen an diese Systeme zu formulieren, damit sie den Regeln der internationalen Gemeinschaft entsprechen. Eine Konsequenz kann darin bestehen, ganz die Finger von dieser Technologie lassen, weil sie nicht ausreichend beherrschbar erscheint. Es kann aber auch sein, dass sich Roboter auf dem Schlachtfeld besser bewähren als Menschen, nicht nur in militärischer Hinsicht, sondern auch in ethischer. Das Resultat könnten weniger zivile Opfer und geringere Zerstörungen sein.

Wenn wir mithilfe von Technologie das Schlachtfeld zu einem sichereren Ort für Unbeteiligte machen können, sollten wir es tun. Ich habe menschliches Verhalten im Kampfeinsatz ausgiebig studiert und das Ergebnis ist ernüchternd: Menschen machen hier viele Fehler und verhalten sich oft grausam. Insofern könnte das Schlachtfeld der Ort sein, an dem sich ethisch agierende Roboter womöglich leichter realisieren lassen als anderswo.

Wie nähern Sie sich diesem Ziel?

Ron Arkin: In den vergangenen drei Jahren haben wir uns in einem von der US Army finanzierten Projekt mit ethischem Verhalten in autonomen Systemen beschäftigt. Im ersten Jahr haben wir eine Umfrage zu dem Thema durchgeführt, die Ergebnisse sind frei zugänglich und bieten, wie ich finde, für sich schon eine interessante Lektüre. Auf der Grundlage haben wir dann ein System entwickelt und getestet, das in der Lage sein sollte, sich am Kriegsvölkerrecht zu orientieren. Das war eine Machbarkeitsstudie, die im Dezember 2009 endete und zu der ich derzeit noch den abschließenden Bericht erarbeite.

Die ethischen Entscheidungen des Roboters beruhen nicht auf einem Regelwerk (rule-based), sondern sind an Randbedingungen orientiert (constraint-based). Was genau bedeutet das?

Ron Arkin: Das ist eine Unterscheidung aus der künstlichen Intelligenz, die mit den grundlegenden mathematischen Verfahren zur Kontrolle des Roboters zu tun hat. Die Ethik-Architektur besteht aus vier Komponenten, die Frage betrifft den "ethical governor", der die Reaktionen des Roboters in bestimmten Situationen regelt. Uns interessieren hier nur die Reaktionen mit potenziell tödlichen Konsequenzen.

Ähnlich wie James Watt für seine Dampfmaschine einen governor konstruierte, der sicherstellte, dass die Leistung der Maschine sich in bestimmten Grenzen bewegte, haben wir eine Software entwickelt, die die Reaktionen des Roboters darauf hin überprüft, dass sie sich innerhalb der Regeln des Kriegsvölkerrechts bewegen. Randbedingungen beschränken den Raum möglicher Verhaltensweisen und markieren klare Grenzen. Der governor erlaubt oder verbietet Aktionen, die von einer anderen Komponente der Software ausgewählt worden ist.

Sie haben ein Video von einem Hubschrauberangriff gezeigt, bei dem auf einen bereits verwundeten Gegner geschossen wurde. Wie soll ein Roboter erkennen, dass ein Angriff in so einer Situation unzulässig ist?

Ron Arkin: Es ging in diesem Beispiel darum, dass im Funkverkehr das Wort "wounded" fiel. Das könnte für einen Roboter eine zwingende Bedingung sein, den Feuerbefehl zu verweigern und um eine ausdrückliche Bestätigung zu bitten.

Selbstständig zu erkennen, dass sich jemand ergibt, ist für einen Roboter dagegen wohl schwieriger?

Ron Arkin: Das kommt darauf an. Generell liegt es in der Verantwortung desjenigen, der sich ergibt, seine Absicht deutlich zu machen. Dafür gibt es klare Zeichen, wie etwa die Hände hoch über den Kopf zu erheben oder sich flach auf den Boden zu legen. Solche Gesten könnten auch von Robotern erkannt werden. Die Einschätzung, ob ein Verwundeter tatsächlich kampfunfähig ist oder noch eine Bedrohung darstellt, ist dagegen auch für Menschen oft schwierig.

Ein strittiger Punkt bei Militärrobotern ist deren Autonomie. Dabei lässt sich zwischen autonomen und ferngelenkten Robotern nicht immer klar unterscheiden, weil sich autonome Funktionen nach und nach in einzelne Komponenten einschleichen.

Ron Arkin: Autonomie ist heimtückisch. Wann trifft der Mensch die Entscheidung, wann der Roboter? Traditionell vertrauen wir mehr dem Menschen als der Maschine. Auf dem Schlachtfeld kann das aber gefährlich sein, denn hier reagieren Menschen anders als beim Ausfüllen eines Testformulars am Schreibtisch. Auf den Stress und das Chaos einer Kampfsituation kann man sie nur begrenzt vorbereiten. Roboter könnten besser dafür geeignet sein. Es ist nur eine Möglichkeit, aber sie könnte helfen, Leben zu retten. Das ist für mich Grund genug, sie weiter zu erforschen.

Tödliche Autonomie gibt bereits in Gestalt von Landminen, Patriot-Raketen oder Cruise Missiles

In Ihrem Vortrag haben sie "lethal autonomy", also mit tödlichen Waffen ausgestattete autonome Roboter, als unvermeidlich bezeichnet.

Ron Arkin: Ja, aber weiter unten auf der Folie stand "...sofern sie nicht durch internationale Abkommen verboten oder geregelt wird". Das ist der Joker in diesem Spiel. Ansonsten gibt es mehrere Gründe für meine Annahme. Zum einen nimmt das Tempo auf dem Schlachtfeld mehr und mehr zu, sodass Menschen bald nicht mehr imstande sein werden, vernünftige Entscheidungen zu treffen.

Dann besteht bei ferngelenkten Robotern das Risiko, dass die Funkverbindung gestört werden kann. Da wir das Gespräch mit Filmen begonnen haben, lassen Sie mich den ersten "Star Wars"-Film als Beispiel nennen: Als das Kontrollzentrum im Todesstern lahmgelegt wird, stehen schlagartig auch alle Roboter still. Autonomie befähigt Roboter, ihre Mission auch dann fortsetzen, wenn die Kommunikation zusammenbricht.

Und schließlich gibt es tödliche Autonomie bereits in Gestalt von Landminen, Patriot-Raketen oder Cruise Missiles. Dies wird von der Gesellschaft offenbar akzeptiert und wird sich weiter entwickeln, wie wir mittlerweile auch akzeptieren, dass in manchen Zügen kein Lokführer mehr an Bord ist und Fahrstühle automatisch funktionieren.

Ich sage aber nicht, dass wir den Menschen aus dieser Gleichung herausnehmen sollen. Es geht nicht darum, einen autonomen Roboterstaat zu schaffen. Roboter bekommen ihre Befehle von Menschen, genauso wie Soldaten, brauchen für die Durchführung ihrer Missionen aber Entscheidungsfreiraum. Dabei werden sie gewiss Fehler machen. Sie sollten daher erst dann zum Einsatz kommen, wenn erwiesen ist, dass sie weniger Fehler machen als Menschen. Sie werden menschliche Soldaten auch nicht komplett ersetzen, sondern an ihrer Seite kämpfen. Ich sehe sie vor allem in Spezialmissionen wie dem Einsatz gegen Scharfschützen, der Durchsuchung von Gebäuden oder anderen Aufgaben, für die Spezialisten benötigt werden.

In Ihrem Vortrag fiel auch der Satz: "Krieg wird es weiterhin geben." Befürchten Sie nicht, durch eben diese Aussage zur Fortexistenz des Krieges beizutragen?

Ron Arkin: Das ist eine Annahme, auf der meine Arbeit aufbaut, keine axiomatische Aussage, ebenso wie die eben diskutierte Unvermeidlichkeit tödlicher Autonomie. Nichts würde ich mehr lieben, als diese Annahmen revidieren zu müssen. Ich ermutige Pazifisten in der ganzen Welt, Wege zu finden, um meine Arbeit irrelevant zu machen.

Nun konzentriert sich diese Arbeit aber weniger auf die Frage, wie es zum Krieg kommt, sondern eher darauf, wie diese Systeme uns in einem Krieg dienlich sein können. Dabei ist es wichtig zu erkennen, dass sie keine eigene Klasse asymmetrischer Militärtechnologie bilden. Ähnlich wie leistungsfähige Radarsysteme verschaffen sie der Seite, die über sie verfügt, einen Vorteil. Das kann die Schwelle zum Krieg senken, doch ich halte es für sehr unwahrscheinlich, dass das Militär deswegen die Erforschung und Entwicklung solcher Systeme aufgeben wird. Letztlich halte ich es für meine Pflicht als Wissenschaftler, die Männer und Frauen, die auf den Kriegsschauplätzen rund um die Welt kämpfen, mit der bestmöglichen Ausrüstung auszustatten.

x
Fehler melden
Telepolis zitieren
Vielen Dank!
Kommentare lesen (86 Beiträge) mehr... http://www.heise.de/tp/artikel/33/33502/
Anzeige
>
<

Darstellungsbreite ändern

Da bei großen Monitoren im Fullscreen-Modus die Zeilen teils unleserlich lang werden, können Sie hier die Breite auf das Minimum zurücksetzen. Die einmal gewählte Einstellung wird durch ein Cookie fortgesetzt, sofern Sie dieses akzeptieren.

Anzeige
Cover

Cold War Leaks

Geheimnisvolles und Geheimdienstliches aus dem Kalten Krieg

Bedrohungen des globalen Dorfes

Florian Rötzer

"Sechs Milliarden Menschen stellen in einer globalen Welt einen idealen Nährboden für die Mikroben dar"

weiterlesen
bilder

seen.by

Anzeige

TELEPOLIS