Forscher wollen mit Maschinenlernen Kriegsverbrechen dokumentieren und verfolgen

Viele Verletzungen von Menschenrechten lassen sich als internationale Verbrechen anzeigen – die nötige Dokumentation wird von lernenden Computern erleichtert.

Lesezeit: 2 Min.
In Pocket speichern
vorlesen Druckansicht Kommentare lesen 36 Beiträge

(Bild: VFRAME)

Von

Alarmiert vom eskalierenden Bürgerkrieg im Jemen flog Saudi-Arabien im Jahr 2015 Luftangriffe gegen das Land, um dort den seiner Ansicht nach drohenden Siegeszug von schiitischen Kräften zu verhindern. Die zusammen mit acht anderen weitgehend sunnitischen arabischen Staaten geführte Intervention sollte nur einige Wochen dauern, sagten Vertreter der Saudis – aber fünf Jahre später ist sie immer noch nicht beendet.

Nach manchen Schätzungen hat es seitdem mehr als 20.000 Luft-Schläge der arabischen Koalition im Jemen gegeben, bei denen viele Zivilisten getötet und ihr Besitz zerstört wurde, was einen direkten Verstoß gegen internationales Recht darstellen soll. Menschenrechtsgruppen versuchen schon länger, solche Kriegsverbrechen zu dokumentieren, um sie vor Gerichten zu stoppen – und eine neue Initiative will dafür bei einem Verfahren in Großbritannien bald Maschinenlernen einsetzen. Dies könnte der Auftakt sein zu einer Methode, mit der sich nach dem Crowdsourcing-Prinzip gesammelte Beweise besser auswerten lassen, sodass Organisationen mehr Informationsquellen für ihre Verfahren bekommen.

Die aktuelle Initiative wird geleitet von der britischen Swansea University und mehreren Menschenrechtsorganisationen. Sie ist Teil von laufenden Bemühungen, die mutmaßlichen Kriegsverbrechen im Jemen zu beobachten, um Verantwortliche zur Rechenschaft ziehen zu können. Im Jahr 2017 begann die Plattform Yemeni Archive mit der Zusammenstellung einer Datenbank von Videos und Fotos, die Fehlverhalten dokumentieren. Die Inhalte stammen von tausenden Quellen, direkt von Journalisten und Bürgern ebenso wie aus sozialen Medien wie YouTube und Facebook; damit sie nicht unentdeckt verändert werden können, sind sie mit Blockchain-Technologie gesichert.

Auf dieser Grundlage und zusammen mit der Organisation Global Legal Action Network (GLAN) begannen die Forscher dann, Belege für konkrete Menschenrechtsverletzungen in einer weiteren Datenbank abzulegen, um Verfahren vor verschiedenen nationalen und internationalen Gerichten einzuleiten. „Um vor Gericht eine Verantwortung nachzuweisen, reicht es nicht aus, nur zu zeigen, was geschehen ist“, sagt dazu Yvonne McDermott Rees, Professorin an der Swansea University und Leiterin der Initiative. Man müsse auch konkret belegen, warum ein bestimmter Fall ein Kriegsverbrechen sei. So könnten illegale Waffen zum Einsatz kommen oder bei Luftangriffen Zivilisten ins Visier genommen werden.

In dem aktuellen Fall konzentrieren sich die Partner auf die in Großbritannien hergestellte Streu-Munition BLU-63. Verwendung und Verkauf solcher Explosiv-Waffen, die beim Auftreffen kleinere Sprengkörper verbreiten, sind in 108 Ländern einschließlich Großbritannien verboten. Wenn sich vor einem britischen Gericht beweisen lässt, dass die Munition tatsächlich für Kriegsverbrechen eingesetzt wurde, könnte damit der Verkauf von Waffen aus dem Land nach Saudi-Arabien gestoppt werden; ebenso wären Strafprozesse gegen Personen möglich, die an den Verkäufen beteiligt sind.

Also entwickelten die Forscher ein Maschinenlern-System, dass alle Fälle des Einsatzes von BLU-63 in der Datenbank erkennen soll. Allerdings sind Bilder davon genau wegen der Illegalität selten, sodass das Team nur wenige Daten aus der echten Welt hatte, um sein System zu trainieren. Also entwickelte es eine synthetische Datensammlung auf Grundlage eines simulierten 3D-Modells der Munition.

Anhand der wenigen vorliegenden Real-Beispiele, darunter ein Foto von BLU-63 aus dem Imperial War Museum, entwickelte das Team zusammen mit Adam Harvey, einem Experten für maschinelles Sehen, die 3D-Rekonstruktionen. Zu einem Grundmodell kamen photorealistische Texturen hinzu, unterschiedliche Schäden und Muster. Die Ergebnisse wurden dann unter verschiedenen Licht-Bedingungen und in verschiedenen Umgebungen berechnet, sodass hunderte Standbilder entstanden, die reale Aufnahmen der Munition sein könnten. Um die Quote der falschen Positiv-Meldungen zu verringern, erstellte Harvey außerdem synthetische Daten zu anderen Objekten wie einem grünen Baseball, die mit BLU-63 verwechselt werden könnten.

Noch ist Harvey dabei, mehr Beispiele für das Training des Systems zu generieren – nach seinen Schätzungen wird er insgesamt mehr als 2000 davon brauchen. Doch schon jetzt funktioniert es gut: Bei mehr als 90 Prozent der automatisch aus der Datenbank gezogenen Fotos und Videos bestätigten menschliche Experten, dass darauf BLU-63 zu sehen ist. Noch verbessern will Harvey das System, indem er mit 3D-Druck und Farbe Modelle der Munition für weitere Tests herstellt und sie dann in Fotos und Videos erkennen lässt.

Wenn das System komplett getestet ist, will das Team damit das gesamte Yemeni Archive durchgehen, das 5,9 Milliarden Video-Einzelbilder umfasst. Ein Mensch würde nach Harveys Schätzung bei 24 Stunden am Tag 2750 Tage brauchen, um all dieses Material zu prüfen – mit Maschinenlernen sollen 30 Tage auf einem normalen Desktop-Rechner reichen. Nach der automatischen Filterung muss es zwar weiter eine Prüfung durch Menschen geben. Aber trotzdem ermöglicht sie einen Effizienz-Gewinn, der Menschenrechtsorganisationen vor Gericht deutlich bessere Karten geben könnte. (sma)