Menü

Future Security 2015: Die Sicherheitsforschung brummt

Technische Überwachungssyteme werden immer besser. Nur mit der Akzeptanz der Überwachung hapert es. Doch auch dafür soll es technische Möglichkeiten geben.

vorlesen Drucken Kommentare lesen 6 Beiträge

Nick Bostrom während seines Vortrags

(Bild: heise online / Detlef Borchers)

Unter dem Motto "in Sicherheit frei" beziehungsweise "Free but secure" haben Sicherheitsforscher auf der Future Security in Berlin drei Tage lang ihre Arbeiten zum Schutz kritischer Infrastrukturen und zum Krisenmanagement vorgestellt. Demnach ist fast alles beherrsch- und steuerbar, nur gegen die Auslöschung der gesamten Menschheit gibt es keine rettenden Vorkehrungen.

Sicherheitsforscher sind es gewohnt, auf Risiken, Bedrohungen und Störungslagen eine technische Antwort zu finden. Sie entwickeln Geräte und Verfahren zur Sprengstofferkennung oder berechnen die optimale Länge der Warteschlangen für die geplante elektronische Grenzkontrolle zu einer besseren "Border Experience" bei der Einreise in den Schengenraum. Sie entwickeln Schutzkonzepte, wie Drohnen über Flugverbotszonen erkannt und zerstört werden können oder wie sichere Transportketten unterhalten werden können. Sie untersuchen in Projekten wie Muskat, wie die Polizei mit mobilen Aufnahmegeräten auf Selfie-Stangen Demonstranten und Fußball-Hooligans verfolgen können und dabei markierte Einzeltäter immer im Bild hat. Selbst die Flüchtlingsströme aus Syrien sind dank Big Data-Analysen ihrer Tweets mit Ubicity mit Krisenmanagement-Systemen kontrollierbar.

Nur bei den ganz großen Schadenslagen sind die Sicherheitsforscher ratlos. Dies zeigte sich, als am zweiten Tag der schwedische Philosoph Nick Bostrom über existentielle Risiken sprach. Das sind jene Entwicklungen, in denen sich die Menschheit mit den besten Vorsätzen nach der Maxipok-Regel selbst auslöscht oder aber durch Aliens beziehungsweise eine kosmische Katastrophe weggeputzt wird. Bostrom, der mit Bill Gates und Elon Musk zu den Unterzeichnern eines Warnrufes vor der Superintelligenz gehört, listete neben der KI-Bedrohung gleich fünf weitere Techniken auf, die der Menschheit den Untergang bringen könnten: Nanotechnik, synthetische Biologie, genetische Modifikation des Menschen, Geoengineering und "totalitarism enabling technologies".

In der anschließenden Diskussion versicherte Olaf Theiler, Leiter des Referats Zukunftsanalyse beim Planungsamt der Bundeswehr, dem Publikum, dass deutsche Militärs niemals autonome Waffen einsetzen würde. Walter Biederbick, Leiter des Zentrums für biologische Sicherheit des Robert-Koch-Instituts, hielt Bio-Gefahren für begrenzbar und Patricia Flor, die Beauftragte der Bundesregierung für Abrüstung und Rüstungskontrolle, wünschte sich eine stärkere Kontrolle der Forschung.

Abseits der Diskussion über die Zukunft des Menschen zeigte die Future Security, dass die Forscher viel tun, um die soziale Akzeptanz von Überwachungssystemen zu verbessern. Als prominentes Beispiel sei NEST genannt, bei dem Besucher eines Hauses nicht direkt überwacht werden, sondern nur die möglichen Wege, die sie nehmen können. Erst wenn sie von diesen Vorgaben abweichen, wird Alarm geschlagen. Auf Basis dieser Technik wurde mit NurseEye ein erstes praktisch genutztes System für Krankenhäuser entwickelt.

Wie weit die Videoüberwachung mittlerweile ist, zeigte Eddy Zwier von der niederländischen Organisation TNO anhand des "Behavioural Profiling" durch Videokameras am Amsterdamer Flughafen Schiphol. Insgesamt sind dort 2600 Kameras allein im Passagierbereich im Einsatz. Sie sollen nur dann Alarm schlagen, wenn Gepäck gestohlen beziehungsweise herrenloses Gepäck gesichtet wird oder wenn Personen am Boden liegen oder sich ungewöhnlich bewegen. Dank ständig verbesserter Algorithmen kommt das System beim Gepäck auf eine Erkennungsrate von 50 Prozent (bei fünf Fehlalarmen pro Stunde), bei Menschen gar auf 60 Prozent (bei acht Fehlalarmen). Die Erkennungsverfahren sollen weiter verbessert werden, bis der Beobachter im Kontrollzentrum wirklich entlastet ist. Ob die Technik besser akzeptiert wird, wenn nur noch Maschinen Menschen überwachen und hinterher sofort alles löschen, sollen weitere Forschungen ermitteln. (anw)