Forscher: Superintelligente KI für Menschen grundsätzlich nicht zu kontrollieren

Eine superintelligente Maschine könnte prinzipiell nicht dazu gebracht werden, sich nur für das Wohl der Menschheit einzusetzen. Das haben Forscher ermittelt.

Lesezeit: 1 Min.
In Pocket speichern
vorlesen Druckansicht Kommentare lesen 467 Beiträge

(Bild: Shutterstock/Usa-Pyon)

Von
  • Martin Holland

Eine superintelligente Künstliche Intelligenz wäre für Menschen prinzipiell nicht zu kontrollieren. Zu diesem Schluss kommt jedenfalls eine Gruppe von Wissenschaftlern, die theoretische Berechnungen zu der Problematik durchgeführt haben. Dabei haben sie zwei mögliche Szenarien durchgespielt, erklären sie nun. Zum einen könnte man einer superintelligenten KI gezielt Ressourcen vorenthalten, doch dann wäre sie nicht mehr superintelligent. Andererseits könnte man ihr ethische Regeln direkt einprogrammieren, das habe aber ebenfalls prinzipielle Grenzen.

Wie die Forscher um Manuel Cebrian und Iyad Rahwan vom Max-Planck-Institut für Bildungsforschung erklären, geht ihre Analyse davon aus, dass jemand eine KI programmiert, "deren Intelligenz dem Menschen überlegen wäre und die selbstständig alles lernen könnte". Ans Internet angeschlossen könnte sie nicht nur auf alle Daten der Menschheit zugreifen, sondern auch Maschinen kontrollieren. Anhand ihrer Berechnungen wäre es grundsätzlich unmöglich, eine solche KI dahingehend zu kontrollieren, dass sie der Menschheit nicht schadet. Das klinge zwar nach Science-Fiction, sagt Cebrian, doch die ersten Schritte auf dem Weg dahin seien bereits gemacht.

Eine Möglichkeit, eine derartige superintelligente KI unter Kontrolle zu halten, sei es, ihr einfach von Anfang an Ressourcen vorzuenthalten, schreiben die Forscher. So könnte man ihr etwa den Zugang zum Internet verwehren und sie auch anderweitig von Maschinen getrennt betreiben. Ohne solch einen Kontakt zur Außenwelt wäre sie aber zu deutlich weniger fähig: "Die großen Menschheitsprobleme würde sie so nicht lösen." Selbst minimale Kommunikationsmöglichkeiten könnte keine völlige Sicherheit garantieren, ohne solche Kommunikationswege wäre aber der ganze Zweck einer solchen Maschine ad absurdum geführt.

Eine Alternative wäre es, einen Algorithmus zu programmieren, der die superintelligente KI überwacht und eine Schädigung der Menschheit verhindert. Der müsste dazu aber wiederum das Verhalten der KI simulieren, um gegebenenfalls rechtzeitig einzuschreiten. Nach aktuellem Stand der Computerwissenschaften könne ein solcher Algorithmus aber prinzipiell nicht programmiert werden. Hinzu komme, dass wir möglicherweise nicht einmal erkennen könnten, wenn eine KI superintelligent ist, schreiben die Forscher noch. Ihre Ergebnisse haben sie im Fachmagazin Journal of Artificial Intelligence Research veröffentlicht.

(mho)