Künstliche Intelligenz gegen Desinformation als Waffe im Cyberwar

US-Militär will mit KI-System automatisch Desinformation, Beeinflussungskampagnen und Propaganda erkennen

Das Militär entdeckt in digitalen Zeiten nicht nur den Cyberwar als neues Kriegsgebiet, sondern auch den Informationsfluss. So hatte sich der ehemalige US-Verteidigungsminister Donald Rumsfeld im Irak-Krieg immer wieder beschwert, dass die Terroristen und Aufständischen medial einen größeren Einfluss haben und Kriege heutzutage weniger auf dem traditionellen Schlachtfeld, sondern durch Verbreitung von Informationen gewonnen oder verloren werden.

Er sprach von einer Niederlage im Medienkrieg und versuchte, im Pentagon eine neue Propagandaabteilung zur Beeinflussung der Öffentlichkeit einzurichten, das Office of Strategic Influence.

Das scheiterte damals noch am Kongress, was sich aber durchgesetzt hat, sind nun Maßnahmen zur Desinformationsbekämpfung, also auch Propaganda oder strategische Kommunikation, die vorgibt, die pure Wahrheit zu verbreiten (Desinformation über Desinformationskampagnen), und die Rede von Information als Waffe – weaponised information ("Das Netz muss wie ein feindliches Waffensystem bekämpft werden").

Heute will man mit Künstlicher Intelligenz und Big Data aber den Kampf gegen Desinformation automatisieren. Die US-Luftwaffe hat der KI-Firma Primer den Auftrag gegeben, ein System zu entwickeln, mit dem sich Desinformation in natürlicher Sprache identifizieren lassen soll – und damit auch die Wahrheit oder Richtigkeit von Texten.

Das ist wagemutig, schließlich müssen Behauptungen nicht nur erkannt, sondern auch überprüft werden, was maschinelles Lernen aber nur aufgrund von vorgegebenen Daten erlernen kann, was von vorneherein einen Bias mit sich bringen dürfte. Da Desinformation nur immer die anderen verbreiten, es also um gegnerische Desinformation geht, dürfte etwa das Pentagon oder der US-Präsident nicht einbezogen werden.

Desinformation größere Bedrohung als wirklicher Krieg

Primer hat schon vorgebaut und verkündet, dass Cyberwar und Desinformationskampagnen eine größere Bedrohung als ein wirklicher Krieg darstellen, es sei ein "Angriff auf die Wahrheit". Der gefährlichste Cyberwar sei, unser denken und unsere Glaubenssysteme übernehmen oder hacken zu wollen.

Früher hatte man von Memetik gesprochen, eine Idee, die vom Evolutionstheoretiker Richard Dawkins entwickelt wurde. Das war auch schon virologisch gedacht. Das Wirken der Meme, also von bestimmten Gedanken oder Bildern, wird mit Viren verglichen, um die Bereitschaft zur Nachahmung von Verhalten und Einstellungen durch Ansteckung und Epidemien zu erklären.

Die Bereitschaft, das Denken der Menschen als ein System zu denken, das durch Ansteckung, mitunter auch durch gezielt konstruierte Meme oder Informationspakete als Manipulationswaffen, verändert werden kann, setzt letztlich voraus, dass Menschen letztlich dumm sind und ein löchriges kognitives Immunsystem haben, wenn sie nicht staatlicherseits geschützt werden.

Im Hintergrund steht wohl immer die Vorstellung, dass die Menschen eigentlich auf unserer Seite stehen würden, wenn sie nicht von Gegnern manipuliert werden, weswegen man die Beeinflussung mitsamt der Abwehr perfektionieren müsse. Aber es stimmt, wenn man Desinformation bekämpfen will, müsste man die Wahrheit kennen.

Kann eine KI die Wahrheit kennen, vor allem eine, die in politischen Kämpfen um die Wahrheit umstritten ist? Primer sagt, dass die KI-Programme große Datenmengen durchsuchen und Trends sowie Muster erkennen können. Man will das in Echtzeit in einem Dashboard aufzeigen, was aber nichts über Wahrheit und Lüge aussagt.

Wenn dann der Gründer von Primer, Sean Gourley, sagt, dass "KI-gestützte Desinformation Wahlen und kritische Infrastruktur sowie die grundlegende Wahrheit unserer Nation gestört" habe, dies aber nur auf "unsere Feinde" schiebt, dann ist schon klar, dass die beanspruchte Wahrheit nur selektiv sein kann.