ICRC: "Ein Waffensystem ohne menschliche Kontrolle ist von Natur aus rechtswidrig"

Kampfroboter Defender: Bild: USAF

Wissenschaftler und UN diskutieren ein Verbot autonomer Waffen, Google-Mitarbeiter protestieren gegen Mitwirkung an einem militärischen KI-Projekt

Drohnen, die ihre Ziele selbstständig erfassen und angreifen - wegen der rasanten technologischen Entwicklung im Bereich Künstlicher Intelligenz und Datenverarbeitung könnten solche Szenarien bald möglich werden. Die "Kampagne zum Stopp von Killer-Robotern"warnt seit Jahren davor und auch die Vereinten Nationen diskutierten deswegen diese Woche auf einer Konferenz der Vertragskonferenz für Konventionelle Waffen (Convention on Certain Conventional Weapons - CCW) in Genf, ob ein Verbot sogenannter "Letaler Autonomer Waffensysteme" nötig ist - und wie das überhaupt aussehen könnte.

"Die Zahl derer, die ein Verbot fordern, wächst", berichtet Thomas Küchenmeister von Facing Finance, einer Organisation, die die Finanzierung völkerrechtswidriger Waffen anprangert und Mitglied bei der "Campaign to Stop Killer Robots" ist, gegenüber Telepolis. Allerdings seien die Diskussionen schon nach wenigen Tagen immer technischer geworden, räumt er ein. Küchenmeister ist allerdings optimistisch, dass spätestens auf dem nächsten Treffen im August Bewegung in die Verhandlungen kommt. "Man spürt, dass viele Länder, die an echten Verhandlungen interessiert sind, sich bewegen", sagt er. "Die Staaten, die sich verweigern, müssen darauf reagieren."

Schwieriges Verbot

Dabei ist das Hauptproblem noch längst nicht geklärt: Was soll eigentlich genau verboten werden? Für die Nichtregierungsorganisationen, die ein Verbot von Killer-Robotern fordern, hat das Internationale Komitee des Roten Kreuzes (ICRC) einen Definitionsvorschlag gemacht. Verboten werden sollen demnach solche Waffensysteme, die in ihren kritischen Funktionen autonom sind: "Aus Sicht des ICRC ist ein Waffensystem ohne menschliche Kontrolle von Natur aus rechtswidrig."

Autonome Waffensysteme könnten und dürften nicht zwischen Zivilisten und Militärs unterscheiden, argumentiert Thomas Küchenmeister. "Wir brauchen neue Regeln, damit das Völkerrecht beachtet und Tötungsentscheidungen nicht an Maschinen delegiert werden." In Genf warb Noel Sharkey (Man kann eine Maschine nicht bestrafen), Professor für künstliche Intelligenz und Robotik an der Universität Sheffield, für ein Verbot von Waffen, die in Lage sind, ohne menschliche Kontrolle zu agieren: "Die Kontrolle passiert über den Aufbau, der durch internationale Waffengesetze vorgeschrieben wird."

Doch ob es überhaupt ein eigenes Verbot für autonome Waffensysteme braucht, ist umstritten. Die Gegenposition ist, dass das bestehende Kriegsvölkerrecht auch auf neue Waffensysteme angewendet werden kann und damit völlig ausreichend ist. Entsprechend unterscheiden sich die Vorschläge, die die verschiedenen Länder und NGO-Experten in Genf vorgelegt haben. So schlägt etwa Belgien vor, Letale Autonome Waffensysteme als solche zu definieren, die ohne menschliches Zutun Ziele auswählen und bekämpfen. Frankreich dagegen will Waffen ausnehmen, die letztlich von Menschen betrieben werden, und nur solche regulieren, die bei "völliger Abwesenheit" von Menschen funktionieren. Polen wiederum will allgemein "menschliche Kontrolle über Waffensysteme und ihren Einsatz" sicherstellen.

Kampfdrohnen weltweit (13 Bilder)

MQ-1A "Predator" auf der Ali Base im Irak. Bild: U.S. Air Force

Es gibt aber auch Länder, die internationalen Regulierungen grundsätzlich skeptisch bis ablehnend gegenüber stehen. Russland spricht sich wegen "des hohes Grades an Effizienz" deutlich für automatisierte bzw. autonome Waffen aus. Jeder Staat müsse dafür seine eigenen Regeln finden, universale Regeln würden "kaum zu praktischen Ergebnissen führen". Letztlich müssen solche Waffen aber von Menschen kontrolliert werden, räumt auch Moskau ein.

Auch die USA verweisen auf ihre bereits existierenden Drohnensysteme und sehen einen "menschlichen Betreiber" als ausreichend an. Juristisch entscheidend sei, "wie Menschen diese Waffen benutzen und was sie erwarten, was diese bewirken". Dementsprechend lehnt Washington alle Versuche, die Waffensysteme selbst genau zu definieren, als überflüssig ab.

Deutsch-französischer Kompromiss

Aktuell sind etwas über zwanzig Länder für ein Verbot. Schließlich gibt es einen deutsch-französischen Kompromissvorschlag, eine politische und rechtlich unverbindliche Deklaration zu verabschieden. Unter Verbotsbefürwortern ist das umstritten. Human-Rights-Aktivistin Bonnie Docherty begrüßte das wenigstens als Übergangslösung.

Thomas Küchenmeister sieht in dem deutsch-französischen Vorschlag dagegen eine Verzögerungstaktik:

Frankreich und Deutschland verhindern derzeit eindeutig nicht die rasante und ungebremste Entwicklung autonomer Waffensysteme. Im Gegenteil, es spricht mittlerweile vieles dafür, dass diese beiden Länder auf Zeit spielen und sogar ein gesteigertes Interesse an diesen Waffen haben.

Thomas Küchenmeister

Mit dem Vorschlag einer politischen Erklärung halte sich die Bundesregierung nicht an das, was CDU/CSU und SPD im Koalitionsvertrag vereinbart haben, kritisiert Küchenmeister. Dort heißt es: "Autonome Waffensysteme, die der Verfügung des Menschen entzogen sind, lehnen wir ab. Wir wollen sie weltweit ächten." Küchenmeister wirft der Bundesregierung außerdem vor, sich in ihrer Koalitionsvereinbarung ein Hintertürchen offen gehalten zu haben.

Denn dort heißt es auch: "Wir werden gemeinsam mit unseren französischen Partnern ein öffentlich verantwortetes Zentrum für künstliche Intelligenz errichten." Entwickelt werden sollen "Anwendungen in allen Feldern der Forschungs- und Innovationsstrategie". "Dies schließt offensichtlich eine militärische Verwendbarkeit dieser Technologien ein", kritisiert Küchenmeister. Frankreich habe bereits angekündigt, "jährlich 100 Millionen Euro für die Erforschung künstlicher Intelligenz im Rahmen einer Innovationsoffensive zur Entwicklung zukünftiger Waffensysteme" bereitzustellen.

Wettlauf gegen die Zeit

Dass die Konferenz in Genf überhaupt stattfand, ist für die Verbotsbefürworter schon mal ein Erfolg. Zufrieden registrierten sie auch, dass die meisten Konferenzteilnehmer prinzipiell anerkannten, dass es eine gewisse menschliche Kontrolle über den Einsatz von Gewalt brauche. "Das allgemeine Einverständnis, dass Menschen die Kontrolle über Entscheidungen über Leben und Tod haben müssen, ist ermutigend", kommentierte Human-Rights-Aktivistin Bonnie Docherty im "Guardian". Sie schlägt vor, bis Ende 2019 ein Verbot auszuarbeiten und zu verabschieden. Nur dann könne die Staatengemeinschaft der technischen Entwicklung vorangehen.

Docherty, die bisher jeden Report von Human Rights Watch zu Autonomen Waffen geschrieben hat, warnte, dass die Zeit für ein Verbot autonomer Waffensysteme knapp wird: "High-Tech-Militärmächte wie China, Israel, Russland Südkorea, Großbritannien und die USA investieren massiv in die Entwicklung Autonomer Waffensysteme. Bisher gibt es kein besonderes internationales Abkommen, um diese Entwicklung zu stoppen."

Gutes Google - böses Google

Dass moderne Datenverarbeitung auch für die Kriegsführung benutzt werden kann, haben unterdessen auch die Mitarbeiter von Google realisiert. Rund 3000 Mitarbeiter der Suchmaschine haben jetzt in einem Offenen Brief verlangt, nicht mit dem Militär zusammenzuarbeiten. Ihre Kritik richtet sich gegen das Project Maven. Google unterstützt dabei das Pentagon, Drohnenbilder auszuwerten (Das Pentagon forciert "algorithmische Kriegsführung". Das Projekt müsse sofort gestoppt werden, Google müsse öffentlich klarmachen, dass es keine Kriegstechnik herstellt, fordern sie.

Das Pentagon wirbt zwar damit, dass sich durch die Datenauswertung unschuldige Opfer besser vermeiden ließen. Aber das beruhigt die Google-Mitarbeiter nicht, die sich noch gut an das - mit der Umwandlung von Google in das Unternehmen Alphabet abgeschaffte - Motto der Konzerngründer Larry Page und Sergey Brin: "Don't be evil" erinnern:

Wir glauben, dass Google nicht im Kriegsgeschäft sein sollte. (...) Dieses Vorhaben wird die Marke Google irreparabel beschädigen und seine Fähigkeit, Talente anzuziehen. (...) Dieses Geschäft riskiert den guten Ruf von Google und steht in direktem Widerspruch zu unseren Kernwerten. (...) Diese Technologie zu entwickeln, um der US-Regierung bei der militärischen Überwachung zu helfen - mit potenziell tödlichen Folgen -, ist nicht akzeptabel.

Offener Brief

Die Erklärung von Google-Managerin Diane Greene, wonach die Google-Technik nicht benutzt werde, "um Drohen zu fliegen" oder um "Waffen zu starten", überzeugt die Unterzeichner nicht: "Die Technologie wird für das Militär entwickelt und wenn sie einmal ausgeliefert ist, kann sie auch leicht dafür benutzt werden."

Aufstand der Wissenschaftler

Der Google-Brief reiht sich ein in vergleichbare Warnschreiben. Erst kürzlich hatten 57 Wissenschaftler aus 29 Ländern zu einem Boykott des Korea Advanced Institute of Science and Technology (KAIST) aufgerufen (Scheinheiligkeit von KI-Wissenschaftlern). Das KAIST arbeitet mit dem südkoreanischen Rüstungsunternehmen Hanwha Systems an der Entwicklung Autonomer Waffen mit Künstlicher Intelligenz. Damit werde der Rüstungswettlauf angefeuert, ausgerechnet während die Vereinten Nationen nach Wegen suchen, wie dieser Bedrohung zu begegnen ist, so die Kritik der Professoren.

Künstliche Intelligenz müsse genutzt werden, das Leben der Menschen zu verbessern, nicht dafür, es zu zerstören: "Wie bei anderen Technologien, die verboten sind, wie blindmachende Laser, können wir uns einfach dafür entscheiden, sie nicht zu entwickeln." Die Professoren verweisen damit nicht zufällig auf sogenannte Blendwaffen. Diese wurden 1995 im Rahmen des IV. Protokolls der Konvention über bestimmte konventionelle Waffen verboten.

Initiiert hat den Boykott der Computerwissenschaftler Toby Walsh von der University of New South Wales in Sydney. Er hatte bereits 2015 tausende Wissenschaftler und Forscher zu einem Appell gegen Autonome Waffensysteme zusammengetrommelt. Zu den über 6000 Unterzeichnern gehörten auch die kürzlich verstorbene Physik-Legende Stephen Hawking und Apple-Mitbegründer Steve Wozniak. Offensichtlich trifft Walsh damit einen Nerv: Hochschul-Wissenschaftler und Entwickler in der Wirtschaft machen sich gewaltige Sorgen, was aus ihrer Forschung wird.

Künstliche Intelligenz und Außenpolitik

Aber nicht nur die Wissenschaft diskutiert die Auswirkung von Künstlicher Intelligenz, sondern auch die Politik. Während in Genf über mögliche Rüstungsverbote diskutiert wurde, diskutierten in Berlin Experten im Auswärtigen Amt über "die Bedeutung von KI für die Außenpolitik". Die Politik müsse sich sofort damit beschäftigen, denn die Veränderungen gingen so schnell vonstatten und seien weitreichend, postuliert die "Stiftung Neue Verantwortung" in einem Thesenpapier mit dem Titel "Artificial Intelligence and Foreign Policy".

Die Autoren rechnen mit einem Rüstungswettlauf bei autonomen Waffensystem und fordern ein entsprechendes Update in der Rüstungskontrolle. Künstliche Intelligenz wirke sich aber auch auf das Wirtschaftsgeschehen aus und auf liberale Demokratien als Ganzes aus. "Es gibt zu wenig Verständnis darüber in unseren Ministerien, wie diese Technologien funktionieren", konstatieren die Politikberater.