Menü

KI in der Soldatenausbildung: Partner und Gegner zugleich

KI in der Soldatenausbildung wird von Soldaten mehr als Gegner und weniger als Partner empfunden. Wann aber kann KI unterstützend wirken?

vorlesen Drucken Kommentare lesen 17 Beiträge

US-Soldaten der Air Force vor Bildschirmen.

Das Thema Künstliche Intelligenz (KI) werde "sehr divers angegangen", lautete ein Fazit in der Abschlussdiskussion der Bonner Konferenz zur Rolle von KI in der Ausbildung von Soldaten. Tatsächlich hatte die Konferenz selbst reichliche Beispiele für diese Diversität präsentiert. Da ging es um KI als Partner, als schützenswertes Gut – aber auch als Gegner.

Harald Schaub von der Industrieanlagen-Betriebsgesellschaft (IABG) nannte in seinem Vortrag auf der Tagung Künstliche Intelligenz in der Ausbildung mehrere Beispiele, bei denen KI dem Menschen als Gegner gegenübertritt. Bei einem Spiel wie Schach oder Go mag das noch akzeptabel sein. Wenn sie dagegen als Internet-Troll Hass und Verwirrung verbreitet oder einen Kampfroboter steuert, wird die Angelegenheit ernst. Auch in einem unter Piloten kursierenden Witz, den Schaub zitierte, erscheint Künstliche Intelligenz eher als Gegner und weniger als Partner: Wie lauten die letzten Worte eines Piloten? "Was macht sie denn jetzt? Das hat sie ja noch nie gemacht!"

Ob die jüngsten Abstürze der Boeing 737 Max, die in den Vorträgen und Diskussionen mehrfach erwähnt wurden, auf ein ähnliches Missverständnis zurückzuführen sind, ist noch nicht abschließend geklärt. Gleichwohl herrschte Einigkeit, dass eine KI nachvollziehbar sein müsse, um als Partner des Menschen akzeptiert werden zu können. Dann könne sie jedoch sehr nützlich sein, so Schaub. Das sei insbesondere bei Tätigkeiten hilfreich, die Menschen ansonsten rasch überfordern, etwa der permanenten Überwachung von Anlagen.

Hauke Ernst von Airbus unterstrich das mit einigen Erfahrungen vom Betrieb der Internationalen Raumstation (ISS), bei der allein vom europäischen Columbus-Modul pro Sekunde 17.000 Telemetrie-Parameter übertragen werden. Diese werden ständig von Menschen überwacht, was auf die Dauer sehr anstrengend ist. "Die Leute haben es bald satt, vor der Konsole zu sitzen", sagte Ernst. Daher werde daran gearbeitet, die Daten durch eine KI vorzufiltern, sodass nur bei Anomalien Experten herbeigerufen werden müssten.

Wenn Soldaten in der Ausbildung bei der Bundeswehr vor einem Bildschirm sitzen, etwa bei simulierten Gefechtsübungen, sollen sie sich nicht langweilen, womöglich sogar "Spaß" haben. Dazu gehört, dass sich die von KI gesteuerten Gegner (Computer Generated Forces) "intelligent und taktisch richtig" verhalten, wie Werner Wex von der Firma Krauss-Maffei Wegmann betonte. Das lasse sich durch agentenbasierte Simulationen, bei denen einzelne Softwareagenten ihr Verhalten untereinander abstimmen, besser erreichen. Zentral gesteuerte Simulationen mit deterministischem Verhalten seien dagegen weniger geeignet. Letztere ließen sich jedoch besser reproduzieren und dadurch auch miteinander vergleichen.

Ein ähnlicher Zielkonflikt zeigt sich auch bei dem von Martin Kroker von Rheinmetall Electronics vorgestellten maritimen Taktik-Trainer. Hier werden die simulierten Schiffe und anderen Objekte teilweise von den Instrukteuren, teilweise von den Auszubildenden und teilweise von einer KI gesteuert. Die Nachvollziehbarkeit des automatisch generierten Verhaltens kann hier ebenfalls zu Lasten des Realismus gehen. Allerdings, so Kroker, könne KI auch bei der Bewertung der Leistungen der Auszubildenden helfen, insbesondere bei "weichen" Kriterien, die nicht einfach mit ja oder nein entschieden werden können. Wenn es darum ginge, inwieweit bei der Übung eine vorgegebene Doktrin oder Kommunikationsrichtlinien eingehalten wurden, könne sich KI als sehr wertvoll erweisen.

Daniel Kallfass von Airbus und Jan Brendecke vom Amt für Heeresentwicklung beschäftigten sich ebenfalls mit der Modellierung von Computer Generated Forces. Sie verwiesen darauf, dass hierfür nicht unbedingt datenintensive Lernverfahren erforderlich seien. Vielmehr ließe sich das Problem auch mit Verstärkungslernen (Reinforcement Learning) lösen, bei dem die Gewichtungen in den Neuronalen Netzen nach jedem Durchlauf angepasst und erfolgreiche Verhaltensmuster verstärkt werden.

Fragen der Ethik wurden in den Vorträgen und Diskussionen immer wieder angesprochen, aber kaum diskutiert. Eine klar definierte "rote Linie" für KI gebe es noch nicht, sagte Ramon Mörl (itWatch GmbH). Die gesellschaftliche Meinungsbildung sei noch ganz am Anfang. Während Vertreter der Bundeswehr die ethische Diskussion aus militärischer Sicht für unverzichtbar hielten, sorgte Michael Mundt vom Anbieter von Geoinformationssystemen ESRI auch auf diesem Gebiet für Diversität. Er forderte in der Abschlussdiskussion: "Bitte vermischen Sie die Ethikdiskussion nicht mit der Technik, dadurch bremsen Sie die Entwicklung nur aus."

Mehr zum Thema "KI und Soldatenausbildung":

(olb)