Menü

Missing Link: Von Embodied Intelligence, Superintelligenzen und der Angst vor der starken KI

Eine maschinelle Superintelligenz, die sich menschlicher Kontrolle entzieht? Keine absurde Vorstellung. Aber Bangemachen gilt nicht. Ignorieren schon gar nicht.

Lesezeit: 4 Min.
In Pocket speichern
vorlesen Druckansicht Kommentare lesen 284 Beiträge

(Bild: agsandrew / shutterstock.com)

Von

Sie nehme das Thema Künstliche Intelligenz "sehr ernst", behauptet die Bundesregierung und fügt in ihrer Erklärung zur "KI-Strategie" ausdrücklich hinzu: "In jeder Beziehung." Mit Verlaub: Zumindest dieser Nachsatz stimmt nicht. Und das wiederum nährt Zweifel an der generellen Ernsthaftigkeit.

Im offiziellen Textdokument vom November 2018 erklären die Verfasser der Strategie bereits im Vorwort klar und deutlich, in welcher Beziehung sie Künstliche Intelligenz (KI) nicht ernst nehmen: Sie folgen der in der Informatik üblichen Unterscheidung von "starker" und "schwacher" KI und schreiben: "Die Bundesregierung orientiert sich bei ihrer Strategie an der Nutzung der KI für die Lösung von Anwendungsproblemen und damit an den Positionen der ‚schwachen' KI."

"Missing Link"

Was fehlt: In der rapiden Technikwelt häufig die Zeit, die vielen News und Hintergründe neu zu sortieren. Am Wochenende wollen wir sie uns nehmen, die Seitenwege abseits des Aktuellen verfolgen, andere Blickwinkel probieren und Zwischentöne hörbar machen.

mehr anzeigen

Ziel der Bundesregierung, so heißt es an anderer Stelle, sei "eine verantwortungsvolle und gemeinwohlorientierte Entwicklung und Nutzung von KI". Aber ist das überhaupt möglich, wenn die starke KI von vornherein ausgeklammert wird? Ich bezweifle das.

Zur Erläuterung: Starke und schwache KI sind etwas unglücklich formulierte, aber weithin verbreitete Bezeichnungen verschiedener Forschungsansätze. Es ließe sich auch von Grundlagenforschung und anwendungsorientierter Forschung sprechen: Die starke KI geht davon aus, dass es grundsätzlich möglich sein könnte, künstliche Systeme zu entwickeln, deren kognitive Fähigkeiten denen des Menschen ebenbürtig oder sogar überlegen sind.

Die Erforschung solcher Systeme eröffnet zugleich einen Weg, das Wesen des Denkens und der Intelligenz selbst zu verstehen. Die schwache KI dagegen konzentriert sich auf die Entwicklung von Verfahren zur Lösung spezifischer Aufgaben, etwa die Erkennung von Gesichtern in Bilddatenbanken, die Empfehlung von Produkten anhand von Userprofilen oder auch die Zielverfolgung in Waffensystemen.

(Bild: sdecoret / shutterstock.com)

Ein wichtiger Aspekt der starken KI ist die mögliche Entstehung einer Superintelligenz, die sich rasch der menschlichen Kontrolle entziehen könnte. Die Folgen wären unabsehbar, gleichwohl ist klar, dass alle zukünftigen Generationen mit ihnen leben müssten. Wie kann die Bundesregierung ihre KI-Strategie allen Ernstes als "nachhaltig" preisen, wenn sie diese Möglichkeiten nicht einmal erwähnt?

Natürlich sind die Regierungsvertreter nicht allein für diesen blinden Fleck verantwortlich. Schließlich haben sie sich durch Experten beraten lassen, die offenbar mehrheitlich nicht an die Möglichkeit einer Superintelligenz glauben und teilweise auch schon der Idee, KI könne sich zu einer empfindungsfähigen technischen Lebensform mit eigenem Bewusstsein entwickeln, energisch widersprechen.

Aber das bleibt eben ein Glaube, mit Gewissheit ausschließen kann diese Möglichkeiten niemand. In den mittlerweile zwanzig Jahren, die ich die Entwicklung der Robotik und KI als Reporter verfolge, habe ich jedenfalls kein Argument gehört, das mich überzeugt hätte. Maschinen-Intelligenzen auszuschließen, das erinnert etwas an die angeblich nicht existenten "Schwarzen Schwäne" - spätestens seit Nassim Taleb sollte eigentlich "die Macht höchst unwahrscheinlicher Ereignisse" ins allgemeine Bewusstsein gedrungen sein.

Gewachsen ist in dieser Zeit dagegen mehr und mehr die Überzeugung, dass die Forschungen zur starken KI mit dem Ansatz der Embodied Intelligence einen ausgesprochen erfolgversprechenden Weg eingeschlagen haben. Diese Forschungsrichtung geht davon aus, dass Intelligenz an einen Körper gebunden ist und aus dem Zusammenspiel von Wahrnehmung der Welt und ihrer gezielten Veränderung hervorgeht. Wer wirkliche, allgemeine – meinetwegen: starke – KI schaffen will, muss Roboter bauen, die im unermüdlich wiederholten Durchlaufen dieser "sensomotorischen Schleife" (Wahrnehmen – Denken – Handeln) lernen, sich sinnvoll in der realen Welt zu verhalten. Der humanoide Roboter iCub steht für diesen Ansatz, ebenso wie der alljährlich ausgetragene Wettbewerb RoboCup, der zugleich der Embodied Intelligence eine Bühne bietet, wo deren Fortschritte quasi in Echtzeit verfolgt werden können.

Gegen einzelne KI-Verfahren wird gelegentlich eingewandt, dass es sich dabei ja gar nicht um Intelligenz handle, sondern nur um einen Algorithmus. Darauf lässt sich aus Sicht der Embodied Intelligence erwidern: Wahrscheinlich ist Intelligenz nichts anderes als ein Algorithmus, der beschreibt, wie Wahrnehmung und Handeln miteinander verknüpft sein müssen, um beide nach und nach zielgerichteter und planvoller werden zu lassen. Möglicherweise ist es eine überraschend einfache Formel, die für das Verständnis der Kognition am Ende eine ähnlich revolutionäre Wirkung hat, wie E=mc2 für das Verständnis von Zeit und Raum.

Aus diesem Grund kann auch der Einwand, dass eine leidensfähige KI oder eine Superintelligenz zeitlich wahrscheinlich noch weit entfernt seien, nicht beruhigen. Denn eine solche KI muss nicht das Ergebnis gezielter Forschungen sein. Sie mag auch unbeabsichtigt und ungeplant – und vor allem: sehr plötzlich – aus dem Zusammenspiel der vielen spezialisierten Einzelanwendungen "schwacher" KI hervorgehen, wenn die durch eine solche Formel des Denkens auf einmal in kürzester Zeit zu einer allgemeinen, superintelligenten KI vernetzt werden können. Unwahrscheinlich? Vielleicht. Aber eben auch nicht ausgeschlossen.

(Bild: metamorworks / shutterstock.com)

Selbst wenn wir mit Sicherheit wüssten, dass die Superintelligenz noch 50 Jahre oder ferner in der Zukunft liegt, muss sie uns daher heute schon beschäftigen. Schließlich legen wir heute ihr Fundament, treffen grundlegende Entscheidungen zu ihrer Architektur, definieren technologische Entwicklungspfade, die spätere Generationen nicht oder nur mit größter Mühe wieder verlassen können.

Auch in dieser Hinsicht ist das Ausblenden der starken KI und insbesondere der Embodied Intelligence ein fataler Fehler. Wenn es stimmt, dass das Denken durch den Körper geformt wird (wofür nicht nur Erkenntnisse aus der Informatik, sondern auch der Biologie und Psychologie sprechen), was für eine Art von Intelligenz soll dann aus den bewaffneten Drohnen und anderen Robotern hervorgehen, die sich Vertreter des Militärs so sehnlich wünschen? Müssen wir nicht gerade angesichts des noch wenig ausgereiften Entwicklungsstandes der KI mit solchen Maßnahmen extrem vorsichtig sein? Unsere Kinder lassen wir nicht einmal mit Spielzeuggewehren spielen, einen Roboter aber statten wir bereits auf einem kognitiven Niveau, das nicht einmal dem eines Säuglings entspricht, mit tödlichen Waffen aus.

Ein kleiner Einschub: Es ist zudem nicht nur ein Zeichen der Angst vor starker KI, sondern auch von anthropozentristischer Arroganz, zu vermuten, maschinelle Intelligenz sähe ihre vornehmste Aufgabe darin, menschliche Intelligenz zu reproduzieren. Hier sei ausnahmsweise mal ein Verweis auf möglicherweise doch prognostische Fähigkeiten moderner Science Fiction erlaubt: Bei aller Kritik an seinen langatmigen Space Operas ist es einer der äußerst spannenden Aspekte in Alastair Reynolds "Poseidons Kinder"- Trilogie, wie die unabhängige Entwicklung einer Maschinenintelligenz als eigenständige Spezies beschrieben wird.

Auf einer vom Future of Life Institute im Januar 2017 organisierten Konferenz in Asilomar zu "Beneficial AI" (Segensreiche KI) wurden 23 Grundsätze für die Entwicklung von KI verabschiedet, die bisher von über 1200 KI-Forschern und mehr als 2500 weiteren Personen unterzeichnet worden sind. Sie warnen unter anderem davor, "starke Annahmen zu machen, wenn es um die Obergrenzen zukünftiger KI-Leistungen geht" (Artikel 19). In Artikel 20 heißt es außerdem: "Fortgeschrittene KI könnte zu weitreichenden Veränderungen für das Leben auf der Erde führen und sollte deshalb mit angemessener Sorgfalt und ausreichenden Ressourcen geplant und verwaltet werden."

(Bild: sdecoret / shutterstock.com)

Wie steht die Bundesregierung zu diesen Grundsätzen? "Wer die Standards setzt, bestimmt den Markt", schreibt sie in ihrer KI-Strategie. Mit der Nichtbeachtung der starken KI verzichtet sie aber bewusst darauf, höchste ethische Standards zu setzen und einer nachhaltigen, auch für zukünftige Generationen sozialverträglichen Technologieentwicklung den nötigen Stellenwert einzuräumen.

Ist es angesichts der möglichen Schaffung von Superintelligenz wünschenswert, dass es weltweit mehrere Superintelligenzen gibt? Wenn ja, wie viele? Oder sollten wir die internationalen Anstrengungen in die Entwicklung einer Superintelligenz konzentrieren?

Diese Fragen stellen sich nicht in der Zukunft, sondern heute. Die ernsthafte Beschäftigung mit ihnen würde es erfordern, innezuhalten und angesichts der historischen Tragweite der zu treffenden Entscheidungen möglichst alle Beteiligten um einen Tisch zu versammeln.

Stattdessen scheint es der Bundesregierung gar nicht schnell genug gehen zu können. Mit ihrer Betonung wirtschaftlicher Aspekte drückt sie auf die Tube, will Startups und Innovationen fördern und sich an die Spitze setzen in einem Rennen, bei dem niemand weiß, wohin es geht. Es gibt aber einen Lichtblick in ihrer KI-Strategie: Sie soll in zwei Jahren überprüft werden. Hoffen wir mal, dass es bis dahin nicht zu spät ist. (jk)