Menü

IBM und Numenta wollen das Gehirn simulieren

Numenta, eine Spezialfirma für maschinelles Lernen von Palm-Gründer Jeff Hawkins, beginnt eine groß angelegte Kooperation mit IBM. Ziel ist es, Numentas Algorithmen fit für größere Datenmengen und reale Anwendungen zu machen.

Lesezeit: 2 Min.
In Pocket speichern
vorlesen Druckansicht Kommentare lesen 56 Beiträge
Von

MIT Technology Review berichtet über die Einrichtung einer Forschungsgruppe bei IBM, die Algorithmen von Numenta für reale Anwendungen wie die Auswertung von Satellitenbildern aus der Landwirtschaft fit machen wollen. Numenta ist eine Ausgründung aus dem Redwood Neuroscience Institute, die sich zum Ziel gesetzt hat, Konzepte aus Jeff Hawkins Buch "On Intelligence" als Algorithmen zu implementieren. Jeff Hawkins, Gründer von Palm und Handspring, kann bei IBM auf Winfried Wilcke als Projektleiter setzen, der schon viel Erfahrung mit Hardwareentwicklung hat. Mit rund 100 Mitarbeitern wäre die neue Forschungsgruppe fünfmal so groß wie Numenta. IBM wollte sich auf Nachfrage nicht zu dem Bericht äußern.

In "On Intelligence" analysierte Jeff Hawkins bereits 2004 den Neocortex, einen entscheidenden Teil der Großhirnrinde. Aufbauend auf der Hirnforschung versuchte er, seine Erkenntnisse in Form des Hierarchical Temporal Memory (HTM) zu algorithmisieren.

In Form von künstlichen neuronalen Netzen (KNN) wird bereits seit 1943 an Algorithmen geforscht, die sich Gehirnzellen zum Vorbild nehmen. Hawkins Ansatz war aber insofern unterschiedlich, da er in einem Knoten seines hierarchischen Netzwerks nicht einzelne Zellen simulierte, sondern Zellhaufen mit einer ähnlichen Struktur. Außerdem wurde versucht, die zeitliche Struktur der Daten zu nutzen, um das Netzwerk schneller zu trainieren. Das Training lernfähiger Algorithmen nimmt den größten Teil der benötigten Rechenzeit in Anspruch.

Interview mit Jeff Hawkins

Der hierarchische Temporalspeicher (HTM) erzeugte zwar einige Aufmerksamkeit in der Forschung zur künstlichen Intelligenz, konnte aber bei der Bearbeitung realer Probleme nicht mit bereits bestehenden Algorithmen des maschinellen Lernens mithalten. Die HTM-Implementierung von Numenta war im Vergleich zu KNNs oder Support-Vektor-Maschinen zu schlecht parallelisierbar und konnte auch mit vielen Datensätzen nicht umgehen.

Numenta reduzierte die Komplexität der Knoten in ihren Netzen mit der zweiten Version ihrer Software und näherte sich damit stark dem bei KNNs gewählten Ansatz an. Mit dem geänderten Ansatz entwickelte das Start-up die Analysesoftware Grok, die Angriffe auf Computersysteme aufspüren kann.

Mit Grok scheint Numenta inzwischen kein Geld mehr verdienen zu wollen. Die Firma bietet das Programm kostenlos zum Download. Stattdessen sind neue Anwendungsfelder für die lernenden Algorithmen ausgemacht: Neben Satellitenbildern und natürlicher Sprache sollen die Bewegungen von Robotern mit Numentas Technik gesteuert werden.

Maschinelles Lernen wird von Firmen wie Google, Yahoo oder Facebook zur Big-Data-Analyse eingesetzt. Dafür sind die Algorithmen von Numenta noch deutlich zu langsam. Allerdings könnte IBM als Chiphersteller hier die entscheidende Wende einleiten. IBM plant mehrere Dies aufeinanderzuschichten und so die Struktur der HTMs in Hardware nachzubilden. Mit einem solchen Chip wäre die Geschwindigkeit kein Thema mehr.

Offen bleibt jedoch die Frage, ob die von Numenta entwickelten HTMs wirklich so nah an der Struktur des Gehirns sind, wie die Firma behauptet. Der New Yorker Professor Gary Marcus bezweifelt das. Seiner Meinung nach ist Hawkins Idee immer noch zu stark vereinfacht. "Bisher habe ich kein schlagendes Argument gesehen, dass sie (die HTMs) bei irgendeiner der wichtigen Problemstellungen besser abschneiden."

IBM und Numenta müssen das Potenzial der HTMs noch unter Beweis stellen. Ob die Algorithmen wirklich die Struktur des Gehirns kopieren, zeigt sich letztlich daran, ob sie in der Lage sind, mit echten Daten so gut zu lernen wie ein Mensch oder zumindest ein Säugetier. (pmk)