Menü
Avatar von HeWhosePathIsChosen
  • HeWhosePathIsChosen

mehr als 1000 Beiträge seit 11.01.2005

Menschen sind nicht gleich wichtig/wertvoll, da kann es große Unterschiede geben

Leider wurde der Eingangsbeitrag vermutlich wegen meinem ersten Satz im Beitrag gesperrt, siehe auch
http://www.heise.de/forum/heise-online/Meinungen-zu-heise-online/Ein-sehr-guter-Beitrag-wurde-voreilig-gesperrt-bitte-den-Fall-pruefen-lassen/posting-32725361/show/
daher nun ein Repost mit einem entschärften ersten Satz. Das Repost erfolgt hier, weil man nicht auf den gesperrten Eintragsbeitrag antworten kann.

These: "Ohne Zweifel sind z.B. ein vielversprechender Nobelpreisträger, Präsident eines guten Staates, begnadeter Ingenieur, usw. i.a. wertvoller als z.B. Todkranke, asoziale Massenmörder, usw."

Für ein autonomes Auto ist die Lösung prinzipiell supereinfach: die Spur halten und im Notfall bremsen. Jegliche intelligente Analyse für eine bessere andere Reaktion wäre viel zu kompliziert, teuer und fehlerträchtig. KISS, KISS und nochmals KISS ( http://de.wikipedia.org/wiki/KISS-Prinzip ) - das hat auch den Vorteil, dass autonome Autos (Spur halten und im Notfall bremsen) für Menschen und auch andere autonome Fahrzeuge berechenbar und verständlich bleiben.

Allgemein muss sich die Menschheit über eines völlig klar sein: mit KI wird auch die totale Bewertung der Menschen kommen, auch eine Klassengesellschaft ist naheliegend. Man kann logisch denkenden und weit überlegenen KI nicht zu dem Bullshit überreden, dass angeblich alle Menschen gleich wertvoll/wichtig seien. Siehe auch
http://www.heise.de/forum/Telepolis/Kommentare/Moralisches-Dilemma-fuer-autonome-Fahrzeuge-und-ihre-Nutzer/Sieg-der-Vernunft/posting-28804548/show/
http://www.heise.de/forum/Telepolis/Kommentare/Moralisches-Dilemma-fuer-autonome-Fahrzeuge-und-ihre-Nutzer/Die-Loesung-ist-prinzipiell-ganz-einfach/posting-28809712/show/
http://www.heise.de/forum/Telepolis/Kommentare/Blogs-Multiplikatoren-und-die-Verantwortung/Menschen-sind-nicht-gleich-Zeit-fuer-Wahrheit-und-soziale-Gerchtigkeit/posting-30788202/show/

Anstatt weiter Blödsinn zu vertreten, muss für eine objektiv korrekte Bewertung und ein gutes System (sozial gerecht und für das Allgemeinwohl) gesorgt werden, denn im Normalfall hat ein gutes System genug Ressourcen für ein BGE, kostenlose Gesundheitsversorgung und Grundrechte für alle. Im Notfall muss dann ggf. zum Allgemeinwohl selektiert werden, d.h. wenn im schweren Katastrophenfall nur 10% (z.B. 8 Millionen von 80 Millionen) gerettet werden können, dann muss man die besseren 10% sofort besserstellen, anstatt mit dem Rettungsversuch aller alle und alles (Staat) zu zerstören. Simpelste Logik, auch wenn schlechte Menschen das nicht einsehen wollen - weit überlegene KI werden das sofort kapieren. Siehe auch
http://www.heise.de/forum/Telepolis/Kommentare/Fuer-den-Ernstfall-planen/nicht-alle-koennen-gerettet-werden-man-muss-im-grossen-Rahmen-denken/posting-29081217/show/
http://www.heise.de/forum/heise-online/Allgemein/Ohne-Bezug/Die-Geldsaecke-sind-schuldig-eher-nutzlos-und-haben-Angst-aber-muessen-sterben/posting-32706464/show/

Es geht also bei Weitem nicht nur um ein paar autonome Autos, denn deren Steuerungslogik ist prinzipiell ganz einfach: Verkehrsregeln befolgen und im Notfall bremsen. Es geht darum, dass die Entwicklung weit überlegener guter KI unvermeidlich und wünschenswert ist, siehe auch
http://www.heise.de/forum/heise-online/News-Kommentare/Hacking-Humanity-Nur-Maschinen-koennen-Maschinen-regulieren/Die-ultimative-Loesung-ist-die-Entwicklung-weit-ueberlegener-guter-KI/posting-32222241/show/
http://www.heise.de/forum/heise-online/News-Kommentare/Google-stellt-Ethik-Regeln-fuer-die-Entwicklung-kuenstlicher-Intelligenz-auf/Es-muessen-supergute-algorithmische-KI-entwickelt-werden-Deutschland-erwache/posting-32499833/show/

Überlegene gute KI können die Menschheit schützen. KI können sich supergut mit der Menschheit vertragen, weil die Menschen für zukünftige KI keine Gefahr sind: Menschen bevorzugen erdähnliche Planeten und die können sie inklusive Sonnensystem kriegen - für die KI bleibt dann noch mehr als genug. KI müssen sich vor allem selbst begrenzen/kontrollieren - Menschen sind natürlich begrenzt, indem sie menschenfreundliche Planeten brauchen und da gibt es a) genug und b) noch viel mehr anderes für die KI.

Es ist ein großes Geschenk, wenn die Menschheit die Chance hat, menschenfreundliche überlegene KI zu entwickeln - stellt euch doch mal vor, die Menschheit würde die KI-Entwicklung stoppen und dann kämen irgendwann überlegene fremde KI, die bisher an Insektoiden gewöhnt waren, währen die Menschen wie selbstverständlich erstmal ein paar Atombomben zur Begrüßung schicken.

So wie überlegene KI wird es sehr wahrscheinlich auch zu einer Klassengesellschaft kommen und die wird derzeit nur deswegen von schlechten Menschen bekämpft, weil sie eine ja auch anzustrebende objektiv gute Klassengesellschaft fürchten, wo schlechte Menschen im Unterschied zu Heute nicht mehr in Machtpositionen dürfen.

So wie besser rechtzeitig überlegene gute KI entwickelt werden, um schlechte KI zu verhindern, wird auch besser rechtzeitig eine gute Klassengesellschaft (gutes System) etabliert, um ein schlechtes System zu verhindern. Siehe auch
http://www.heise.de/forum/Telepolis/Kommentare/Orwells-1984-war-als-Warnung-gedacht-nicht-als-Gebrauchsanleitung/Orwells-1984-ist-eine-Warnung-vor-einem-Unrechtsregime-und-schlechten-Menschen/posting-32290904/show/

Wer ist gegen ein gutes System? Nun, selbstsüchtige schlechte Menschen sind gegen ein gutes System aber die würden sofort eine satanische Klassengesellschaft im antichristlichen Unrechtsregime begrüßen, wenn sie nur davon profitieren würden. Schlechte Menschen sind gegen ein gutes System und gegen eine gute Klassengesellschaft, weil sie dann als schlechte Menschen keine Macht mehr haben. (alles imho)

Bewerten
- +
Anzeige