Menü

Autonome künstliche Intelligenzen: "Echte KI braucht Kreativität im Computer"

Von autonomen Organismen und intelligenten Systemen werden wir nur durch Hemmnisse in den Köpfen zurückgehalten, meint der Forscher Christoph von der Malsburg.

Lesezeit: 3 Min.
In Pocket  speichern vorlesen Drucken Kommentare lesen 28 Beiträge

(Bild: sdecoret / shutterstock.com)

Von

Trotz des aktuellen Hypes rund um Künstliche Intelligenz (KI) sind sich viele Experten einig, dass eine "starke" KI in Form einer echten, allgemeinen Verständnisfähigkeit noch hunderte Jahre weit weg ist und eventuell nie von Maschinen erreicht wird. Doch "wir werden von einem Dammbruch nur durch Hemmnisse in den Köpfen zurückgehalten", ist sich der Neuroinformatiker Christoph von der Malsburg sicher. Sobald die Hindernisse beseitigt würden, komme es zu einer "explosionsartigen Welle", in der "autonome Organismen entstehen werden".

heise online: Welten / Die c't Stories

heise online und c't werfen mit zwei Science-Fiction-Buchreihen im Hinstorff-Verlag nicht nur einen Blick in die Zukunft. Mit den Reihen "heise online: Welten" und den "c't Stories" wollen wir auch den Blick dafür schärfen, wie Digitalisierung die Welt verändert.

mehr anzeigen

"Die Wissenschaft hat Scheuklappen auf", erklärte der Forscher am Frankfurt Institute for Advanced Studies am Dienstag auf der Konferenz 2039 Explained von Microsoft in Berlin. Diese Denkblockade liege etwa in der "tief verwurzelten Haltung", dass "Ideen immer aus menschlichen Gehirnen kommen". Selbst bei der KI-Spielart Deep Learning "werden Beispiellösungen vom Menschen erstellt, die Maschinen machen nur Statistik". Bei der klassischen KI stecke die Idee immer schon in Form direkter Algorithmen im Programm. Indirekte Lösungsroutinen, die im System selbst entstünden, seien suspekt.

Das menschliche Gehirn gehe genau anders vor, erklärte der Gründer der auf Gesichtserkennung spezialisierten Firma ZN Vision Technologies am Beispiel der visuellen Perzeption. Der Mensch kriege hier aus der Umwelt ein inverses Rätsel geliefert, zu dem das Hirn in Zehntelsekunden eine Lösung auf Basis indirekter Hinweise und Erfahrungstatsachen liefere. Diese Reichhaltigkeit in den Köpfen maschinell nachzubauen, werde tatsächlich noch lange dauern.

Christoph von der Malsburg (Frankfurt Institute for Advanced Studies), Anselm Rodenhausen (SF-Autor und Jurist) & Guido Brinkel (Microsoft) (v.l.n.r.)

(Bild: heise online / Stefan Krempl)

Ausschlaggebend für die menschliche Wahrnehmungs- und Verständnisfähigkeit ist laut von der Malsburg vor allem die "Schaltung des Gehirns". In dieses gingen eigentlich nur Gigabytes rein, wenn man die darin stattfindenden Prozesse aber beschreiben wolle, brauche man dafür Petabytes.

"Der Suchraum unseres Gehirns ist sehr gut organisiert", erläuterte der Wissenschaftler. Er enthalte genau das, was drin sein solle. So entstünden lauter Netzstrukturen, in denen sich Fragmente sich in Sekundenschnelle an oder ausschalteten und zu einer "Gesamtschaltung" führten, die den bewussten Zustand darstelle. Geformt würden diese Synapsen in den ersten drei, bis vier Jahren in einer stabilen einfachen erzieherischen Umgebung "im Wechselspiel mit wenigen Agenten". Mit sehr wenig Input würden so letztlich in Form der "Emergenz" sehr viele Informationen produziert.

Große Erfolge feiere die gegenwärtige KI-Forschung in diesem Sonne auf dem "Kern neuronaler Netze im algorithmischen Gehäuse", konstatierte von der Malsburg. Dies allein sei aber noch keine echte Gewinnerstrategie. Ein weiteres Hindernis für starke KI sei nämlich das Datenformat Bits, das einen "gigantischen Suchraum" darstelle. Es handle sich um eine Art riesiges, strukturloses Fischernetz, in dem man den Fisch kaum finden könne. Ein gängiges neuronales Netz wiederum sei "viel zu klein, um den Fisch überhaupt zu erhalten".

#heiseshow: Wo geht es hin mit der KI?

Echte KI braucht für den Forscher daher Möglichkeiten für eine "strukturierte Suche" sowie "Kreativität im Computer". Intelligenz sei eine Passion, Zielprojektion und Antriebsmaschinerie. Um diese in Rechnersysteme zu übertragen, dürften die Planer nicht immer schon selbst entscheiden, "was optimiert werden soll". Die Folge der von ihm vorausgesehenen Kreation intelligenter Systeme sei letztlich aber, dass sich der Mensch "selber an den Rand der Entwicklung" bugsiere, räumte von der Malsburg ein: "Autonome Maschinen werden intelligenter sein als wir. Die zweite oder dritte Generation ist nicht mehr in unserer Händen."

In eine ähnliche Richtung geht der Blick von Anselm Rodenhausen in seinem Science-Fiction-Roman "Zernetzt". Darin schafft es das Berliner Startup Spannwerk, das Silicon Valley zu schlagen mit einem sozialen Netzwerk, das mit KI kombiniert ist. Die Nutzer müssen so nicht mehr selbst etwas schreiben oder Fotos einstellen, denn das machen alles "elektronische Sekretäre" für sie. Sie werden dabei anfangs noch per Sprache gesteuert, dann aber über die Gedanken mit kleinen EEG-Pads. Diese scannen Gehirnströme und leiten daraus Befehle ab. Letztlich treffen die Agenten aber immer mehr autonome Entscheidungen und werfen die Frage auf, ob diese überhaupt noch menschlich sind.

Es sei durchaus möglich, dass die Technik bald selbst voranschreite, befand der Autor, der als Jurist bei der EU-Kommission arbeitet, auf der Konferenz. Er halte es für eine Fehlvorstellung, "dass der Mensch alles immer bis zum Ende durchdenken wird". Schon heute könne der Einzelne angesichts komplexer Techniken wie Social Scoring kaum mehr die Kontrolle behalten. Schon bei den Datenschutzbestimmungen einer Webseite sei es schwierig, den Durchblick zu behalten. Zumindest für dieses Problem könnten Assistenten aber eine Lösung liefern, die einschlägige Präferenzen des Nutzers kontrollierten. Andererseits resultiere daraus wieder eine größere Abhängigkeit von der Technik.

Die Diskrepanz zwischen "Intelligenz" und KI sei noch groß, berichtete Patrick van der Smagt, Leiter der KI-Grundlagenforschung bei Volkswagen. Um die Lücke zu verkleinern, müssten noch prinzipielle Probleme etwa in der Mathematik und Informatik gelöst werden. Was KI bedeute, könne er nicht genau sagen. Anwendungsbezogene Forschung in diese Richtung sei daher eher eine Geldverschwendung. Vielleicht schaffe es die Wissenschaft in 20 Jahren vorhersagen zu können, "was in den nächsten zwei Sekunden passiert, wenn ich mich bewege".

"Wir brauchen eine digitale Ethik für Programmierer in Anlehnung an den hippokratischen Eid", der sich für Ärzte bewährt habe, warb Tanja Böhm, Leiterin Microsoft Berlin, für konkrete Regeln für Entwickler. Beim Projekt Algo.rules sei das Team aber rasch wieder von der Idee abgekommen, eine Art Berufsethik für Programmierer auszuarbeiten, ließ Philipp Otto, Direktor der Denkfabrik iRights.Lab, durchblicken. Es sei besser, moralische Vorgaben an vielen Beispielen durchzudeklinieren und zugehörige Code-Bausteine zu liefern. Nötig seien "globale Standards vor allem für autonome Waffensysteme", mahnte die grüne Bundestagsabgeordnete Anna Christmann. Generell müsse KI von Transparenz, Diskriminierungsfreiheit, Verantwortung und Nachvollziehbarkeit geprägt sein. (jk)