Menü

Deepmind sucht Schlüssel zur Intelligenz

Die Lösungsstrategien von Tieren könnten sich als wichtiger Baustein für den Bau intelligenter Maschinen entpuppen.

Deepmind sucht Schlüssel zur Intelligenz

Als australische Forscher im Juni in der renommierten Zeitschrift Science eine Studie veröffentlichten, die zeigt, dass Honigbienen das Konzept der Zahl Null verstehen, waren sie überzeugt, dass dies nicht nur Biologen interessieren sollte. Denn wenn für solche höheren kognitiven Fähigkeiten kein weit entwickeltes, großes Gehirn nötig ist, könnten wir möglicherweise intelligentes Verhalten in Maschinen programmieren, berichtet Technology Review in seiner aktuellen Ausgabe. Es würde ohne futuristische Superrechner auskommen und sich vielleicht sogar in ein kleines Roboterhirn implementieren lassen.

Es sind Fragen wie diese, die zunehmend auf Konferenzen mit Titeln diskutiert werden wie beispielsweise „Canonical Computations in Brains and Machines“. Die Tagung, die Mitte März an der New York University stattfand, markiert eine bemerkenswerte Renaissance: Neben prominenten Neurowissenschaftlern und Kognitionsforschern gaben sich dort auch Vertreter von Google, Facebook und DeepMind die Ehre. Die Neurologen hoffen, einer Erklärung näher zu kommen, wie Menschen und Tiere lernen. Wie sie aus Versuch und Irrtum und anhand von extrem wenigen Beispielen relevante Informationen extrahieren. Und die Computerwissenschaftler hoffen, sich ein paar dieser Tricks abschauen zu können.

DeepMind ist nun ein kleiner Schritt in diese Richtung gelungen. Erst kürzlich stellten die Entwickler ein neuronales Netz vor, das Erfahrungen in gewisser Weise verallgemeinern kann. Der Schlüssel ist das sogenannte Reinforcement Learning, erklärt Matthew Botvinick von Deepmind: Die Software probiert zunächst wahllose Aktionen aus, um ein Problem zu lösen. Eine Feedback-Schleife sorgt jedoch dafür, dass erfolgreiche Aktionen belohnt werden. Das System probiert diese Aktionen also öfter und wird mit der Zeit immer besser.

„In unserem Beispiel muss das System zwischen zwei virtuellen Glücksspielautomaten wählen“, sagt Botvinick. Es muss lernen, welcher der beiden Automaten mehr Gewinn liefert. „Im Unterschied zu anderen Netzwerken haben wir unseres aber mit einer langen Reihe solcher Aufgaben konfrontiert. Manchmal hat der rechte Automat mehr Gewinn geliefert und mal der linke.“ Nach einigen Hundert Durchläufen lernt die Software tatsächlich die hinter der Aufgabe liegende Strategie: Die beste Lösung für einen maximalen Gewinn ist, beide Automaten auszuprobieren, Informationen zu sammeln, und erst wenn sie sicher ist, immer den richtigen Automaten zu betätigen.

Im Prinzip sei dieses Meta-Learning „ein wesentlicher Schlüssel zur künstlichen allgemeinen Intelligenz“, schwärmt der DeepMind-Forscher. „Denn unsere Welt besitzt eine spezifische Eigenart: Wir erleben niemals dieselbe Situation zweimal, aber wir erleben auch niemals eine komplett neue Situation. Jedes intelligente System muss also die Fähigkeit besitzen, die Erfahrungen der Vergangenheit zu nutzen, um sie auf elegante und schnelle Weise auf neue Aufgaben zu übertragen.“

Die große Herausforderung bestünde nun allerdings darin, Systeme zu bauen, die immer abstraktere Konzepte entdecken können. Ein Schlüssel dafür, glaubt Botvinick, sei die richtige Umgebung, in der die KI-Systeme trainieren, leben und lernen können. Sie zu finden, sei eines der großen Ziele in der KI-Forschung. (wst)

Zur Startseite
Anzeige