Menü
Avatar von ZweiCentMeinung
  • ZweiCentMeinung

472 Beiträge seit 26.01.2018

Also es gibt durchaus gewisse "intelligente" Subfunktionalitäten bei Waffen,

die man in den meisten Fällen als sinnvoll ansehen kann.

Nur handelt es sich hierbei nicht darum "intelligent" ein Ziel rauszusuchen, auf das dann - autonom - z.B. zu schießen wäre.

Sondern um "intelligente" Subsysteme, die in manchen Fällen, z.B. "friendly fire" verhindern oder allgemein, einfach dafür sorgen, dass zu gewissen Zeitpunkten keine "Schüsse" abgegeben werden. Stichworte Notfallsysteme etc. Also Soldat will schießen, die Waffe aber nicht, um das mal etwas metaphorisch und überspitzt zu formulieren.

Nur autonome Entscheidungen von Waffensystemen zu schießen (autonome betätigung des Abschussmechanismus aufgrund autonomer Entscheidung) halte ich für keine sehr clevere Idee. Stellen wir uns dazu einfach das IoT für "autonome" Waffensysteme vor mit der entsprechenden Vorrausicht etwaiger gefahren. Könnte ein "blutiges" Schlaraffenland für Skript-Kiddies und Psychopathen/Soziopathen werden.

ps. Ob ein Entwickler wohl in ein autonomes Waffensystem einbauen könnte - gewisserweise als geheimes Feature - dass die Waffe eben nicht gegen Ihn genutzt werden kann, also z.B. wenn er laut Sensorik des autonomen Waffensystem getroffen werden würde und er weiterhin als Entwickler erkannt wird, so gibt es eine komische Fehlfunktion, so dass das autonome Waffensystem erst schießt, wenn der Entwickler nicht mehr getroffen werden könnte?

Bewerten
- +
Anzeige