Speicherung des Wahrnehmungsflusses

Ein Darpa-Projekt zielt darauf ab, möglichst viele Daten mit tragbaren Sensoren zu sammeln und auszuwerten, die Soldaten auf Patrouille, bei Erkundung oder im Kampf machen

Auch wenn das Pentagon-Projekt Total Information Awareness (TIA) offiziell längst eingestellt wurde, werden manche Überwachungs- und Data-Mining-Programme, die dort unter der Leitung von John Poindexter angedacht wurden, weiter geführt. Ein Beispiel ist das Projekt LifeLog (Nichts geht verloren - oder: Totale Überwachung), das allerdings das anspruchsvolle und durchaus invasive Ziel hatte, mit Sensoren und einer Vielzahl von möglichen Daten, „den Wahrnehmungsfluss einer Person in der Welt und in Interaktion mit dieser“ zu erfassen, zu speichern und zugänglich zu machen, „um ein breites Spektrum an Partnern/Assistenten oder anderen Systemkapazitäten zu unterstützen".

Zwar wurde LifeLog mit dem noch schnell zum Terrorist Information Awareness umgetauften Überwachungsprogramm eingestellt, aber in bescheidenerer Form unter dem Namen Advanced Soldier Sensor Information System and Technology (ASSIST) 2004 von der Darpa wieder ausgeschrieben (Künstliches Wahrnehmungsgedächtnis).

Ziel von ASSIST ist, die Soldaten im Einsatz gewissermaßen als Plattform zu verwenden, um bessere Berichte zu erhalten und um die Soldaten selbst zu entlasten, die unter Stress stehen und deren Beobachtung daher eingeschränkt ist. Zudem werden die von den Soldaten erforderten Berichte nach Ansicht des Pentagon dadurch beschränkt, weil diese nur mündlich und schriftlich gemacht werden. Man setzt darauf, dass „multi-modale Sensoren“ zusammen mit informationsverarbeitenden Sensoren brauchbarere und genauere Ergebnisse liefern.

In Zukunft sollen die Sensoren in die Unform eingearbeitet sein. Beim Testen wurden sie jetzt noch irgendwie an Helm und Kleidung angebracht. Bild: NIST

In der Phase eins, die nun abgeschlossen zu sein scheint, soll die neuen Möglichkeiten von Sensoren, die von Soldaten mitgeführt werden, vorgeführt werden. Erfordert sind mindestens Sensoren zur Lokalisierung und für Bilder, Audio und Bewegung. Deren Daten sollen gespeichert und so verarbeitet werden, dass daraus „digitale Berichte und Darstellungen“ erzeugt werden. Auch wenn man bei der Darpa gerne „revolutionäre“ Konzepte entgegen nehmen würde, ging es primär darum, ein bescheideneres, aber einsatzfähiges System zu entwickeln, das Soldaten auf Patrouille oder zur Erkundung mitnehmen können. Sie sollen beispielsweise einzelne Bilder machen und mit ein paar ergänzenden Worten oder Sätzen erläutern. Diese werden mit Informationen zu Zeit und Ort ergänzt. Sie sollen aber auch, etwa bei Feindkontakt, kurze Videos aufzeichnen und versenden können.

Im Augenblick besteht die Ausrüstung, die gerade vom National Institute of Standards and Technology (NIST) in einem simulierten irakischen Dorf mit „Aufständischen“, „Verkäufern“ und anderen Bewohnern, getestet wurde, aus fünf verschiedenen Sensoren, die an Helm und Kleidung angebracht werden. Zur Lokalisierung wird ein GPS-Empfänger mitgeführt. Mit einer digitalen Kamera und einer Videokamera, beide am Helm angebracht, können Bilder gemacht werden. Mit einem System lässt sich arabisch geschriebener Text übersetzen. „Erfasst, klassifiziert und gespeichert“ werden auch Geräusche wie die von Fahrzeugen oder von unterschiedlichen Waffen. Die Soldaten kommentieren, was sie wahrnehmen. Die Software soll daraus wichtige Begriffe extrahieren und aus dem multimedialen Material mehrerer Soldaten einen indexierten Überblick schaffen. Zunächst werden die digitalen Berichte noch von den Soldaten, die die Sensoren mitgeführt haben, teilweise editiert, ergänzt und berichtigt, aber auch hier geht es letztlich darum, den human factor auszuschalten und die Technik zu verselbständigen.

Vorgesehen sind für ASSIST bislang weitere vier Jahre für die Entwicklung. Die Systeme sollen natürlich immer perfekter werden, auch selbständig aus der Erfahrung lernen, und automatisch arbeiten, so dass es letztlich egal ist, ob sie von Soldaten oder Robotern mitgeführt werden. So zielt man etwa darauf, dass die Systeme Sprache interpretieren und multimediale Informationen so verarbeiten, dass „Objekte, Szenen und Aktivitäten“ automatisch erkannt und mit Kontextdaten ergänzt werden. Das KI-basierte Programm soll mit einer allgemeinen Ontologie und Wissensrepräsentation auch neue Objekte und Ereignisse erkennen und integrieren können. (Florian Rötzer)

Anzeige