Lernen wie die Kinder

Ein Entwicklungsalgorithmus soll Roboter durch Erfahrung lernen lassen

SAIL, das steht, kompliziert genug, für Self-organizing, Autonomous, Incremental Learner, und ist auch kompliziert, zumindest anspruchsvoll: ein Roboter, der nicht nur lernen, sondern auch letztlich seine kognitiven Fähigkeiten entwickeln können soll. Ein Roboter, der durch die Erkundung seiner Umwelt, lernt, sich in ihr zurecht zu finden und Neues zu machen, der sein Verhalten und seine Kognition wie der Mensch entwickelt. Solche autonome und automatisch lernende Roboter als Vision sind das Ziel vieler Wissenschaftler, immerhin hat Juvang Wenig, der Vater von SAIL (Michigan State University), bereits seine allgemeinen, nicht aufgabenspezifischen Entwicklungsalgorithmen als Patent angemeldet und fordert jetzt, solche menschenähnlichen Roboter schneller zu entwickeln und mehr Geld in die Forschung zu stecken.

SAIL ist ein Bruder anderer Roboter, die von Grund auf ihr Denken und Verhalten lernen sollen - mit der Erwartung, dass ab irgendeiner Stufe plötzlich (Selbstorganisation) wirkliche Intelligenz auftritt, und sei es auch nur die eines Tieres, das lernen kann. Der berühmteste Bruder von SAIL ist wohl Coq, betreut von Rodney Brooks am MIT. SAIL gibt es auch schon eine Weile. Zwei "Augen" hat er, eine Art Hals, um seinen Kopf zu drehen. An seinem Rumpf befinden sich vier Drucksensoren, 28 weitere Drucksensoren sind auf seinem Greifarm, auf seinem Kopf und Hals verteilt, durch die die Erzieher sein Verhalten steuern können. Der Rumpf sitzt auf Rädern, die von einem Rollstuhl stammen. Sein Gehirn besteht hardwareseitig aus 512 MB RAM und einer Festplatte mit 27 GB, um Echtzeitsteuerung und -wahrnehmung zu ermöglichen.

Der Entwicklungsansatz unterscheidet sich nach Weng von den anderen Methoden, die auf Lernen, Wissen oder evolutionären Algorithmen basieren. Der "Entwicklungsalgorithmus" startet, wie das Weng zumindest gerne sehen will, bei der "Geburt" der Maschine und ermöglicht es dann, ohne weitere Programmierung, dass der Roboter im Umgang mit der Umwelt und im Training mit den Menschen seine Kognitions- und Verhaltensmodelle selbst generiert: eine "systematische Selbstorganisation" soll das Lernen nach dem, was der Roboter in seiner Umgebung wahrnimmt, was er macht, was er von Menschen lernt und welche Anerkennung er von diesen erhält, befördern, aber eigentlich sollen Menschen ja nicht notwendig sein, wenn sie den SAILs nicht bestimmte Verhaltensweisen beibringen wollen. Und verstehen, wie das Lernen passiert oder was in den SAILs so vorgeht, brauchen die Menschen sowieso nicht, denn das ist alles schon zu kompliziert.

SAIL könne, nachdem ein Mensch ihn durch die Gänge eines großen Gebäudes geführt hat, sich auch in ähnlichen, aber unbekannten Situationen zurechtfinden, während er mit seinen beiden Kameraaugen sieht. Er habe auch, nachdem man ihm Spielzeug gezeigt und ihn veranlasst habe, sie zu berühren, gelernt, auf sie aufmerksam zu werden, sie zu erkennen und wieder nach ihnen zu greifen: "Um es SAIL zu ermöglichen, automatisch zu lernen, lässt ihn der Erzieher des Roboters die Welt selbst erkunden, aber verstärkt oder schwächt Verhaltensweisen ab, indem er den Knopf für 'gut' oder 'schlecht' drückt."

SAIL ist, wie Weng sagt, ein erster Prototyp eines neuartigen lebendigen Wesens. Das erklärt sich so: "Eine Maschine ist ein Agent, wenn er aufgrund seiner Sensoren wahrnehmen und aufgrund seiner Effektoren handeln kann. Eine lebendige Maschine ist ein Agent, der aufgrund eines Entwicklungsalgorithmus agiert." Also ist jeder Roboter, der einen Algorithmusalgorithmus besitzt, eine lebendige Maschine, denn Lebewesen entwickeln sich "von der Kindheit zum Erwachsensein".

In einem Science-Artikel ("Autonomous Mental Development by Robots and Animals", Jan 26 2001: 599-600) fordern Wenig und seine Kollegen, dass die Forschung über "biologisch motivierte geistige Entwicklungsmethoden für Roboter und Computermodelle der tierischen mentalen Entwicklung" besser gefördert werden sollte, um endlich intelligente Maschinen entwickeln zu können, die autonom zu leben in der Lage wären, einen Körper haben, um die Umwelt zu erkennen, in der sie sich befinden, und die über einen allgemeinen Lernalgorithmus verfügen. Auch bei biologischen Lebewesen habe man zeigen können, dass Neuronen durch Lernen sich anders verschalten können, also Neuronen, die einst dem Hören dienten, auch dem Sehsystem dienen können. Es gibt also möglicherweise allgemeine Entwicklungsprinzipien, die man mit Robotern nachahmen könnte. Das wäre auch deswegen wichtig, weil der Programmierer ja nicht wissen kann, für was der Roboter, den er groß gezogen hat, einmal verwendet werden soll. Allerdings müssten die Entwicklungsprogramme von Robotern ihren Körpern spezifisch sein, schließlich haben sich auch bei uns Gene und Körper parallel entwickelt.

Solche schlauen Roboter müssen dann auch erst einmal eine lange Zeit des Aufwachsens und Lernens durchlaufen, wie das bei Menschen auch der Fall ist. Weitgehend selbst sollen sie lernen, ein wenig Anleitung und Einweisung, also ein paar Meme, brauchen sie aber schon von ihren "Eltern", bei denen sie aufwachsen. Weng stellt sich vor, dass man für die einzelnen kognitiven Leistungen nicht jeweils andere Programme benötigt, sondern dass womöglich ein sehr allgemeiner Lernalgorithmus ausreicht, um die verschiedensten Dinge lernen zu können.

Die Forschung an solchen Robotern Wie SAIL würde einerseits Aufschluss geben können, wie sich das menschliche Gehirn entwickelt und seine Umwelt kennen lernt, andererseits wären solche menschenähnlichen Roboter aber auch ganz praktisch, weil sie Dinge lernen könnten, die Menschen nicht mögen oder ihnen zu gefährlich sind, was allerdings nicht gerade ein neuer Gedanke ist. Hugo de Garis, der sich selbst als "Brain Builder" bezeichnet, hat denn auch die Fragestellung zugespitzt und einen Konflikt zwischen denjenigen vorausgesagt, die an der Evolution der Roboter und damit womöglich am Untergang der Menschen arbeiten, und jenen, die die Menschheit bewahren und die Weiterentwicklung des künstlichen Lebens und der künstlichen Intelligenzen verhindern wollen (Bauen wir Götter oder unsere möglichen Exterminatoren?).

Einen Vorteil gegenüber den nassen Gehirnen hätten die künstlichen mit ihrem Entwicklungsalgorithmus: Ist der Körper beschädigt, kann man sie einfach auf einen anderen Körper verpflanzen, selbst wenn dann wieder, sofern es sich nicht um einen identischen Körper handelt, gelernt werden muss.

Unter anderem wird die Forschung an SAIL auch von der DARPA gefördert. Das Militär hat natürlich auch Interesse an autonomen und lernfähigen Robotern. Weng ist noch an einem weiteren, von der DARPA geförderten Forschungsprojekt der Michigan State University beteiligt, bei dem es um die Entwicklung von Mikrorobotergruppen geht, die für Kampfeinsätze oder zum Auskundschaften besonders für Orte gedacht sind, an die Menschen nicht hinkönnen oder die für sie zu gefährlich wären. Nicht größer als 5 Zentimeter sollen sie sein, am besten wäre es, wenn sie anpassungsfähig sind und auch ihren Körper je nach Situation verändern könnten. Ausgerüstet mit Kameras, Infrarotsensoren und Mikrofonen könnten sie wertvolle Informationen aufnehmen und übersenden.

Lal Tummula, Elektroingenieur und Projektkoordinator, stellt sich den Einsatz etwa so vor: "Möglicherweise könnten die Roboter von Hubschraubern abgeworfen oder wie Kugeln in ein Gebäude geschossen werden. Dann könnten sie ihren Aufgaben nachgehen und, ohne bemerkt zu werden, Informationen sammeln." Erst einmal ist man bei einem zweibeinigen Roboter angelangt, der sich mit Saugnäpfen fortbewegen kann. Unebenes Gelände oder glatte Böden sind dann ebenso überwindbar wie Treppen oder gar das Erklettern von senkrechten Wänden. Der "smart robotic foot" (SRF) besteht aus einem Saugnapf, einem Drucksensor und einer Vakuumpumpe. Und Weng soll dafür sorgen, dass die Mikroroboter mit ihren Kameras sehen und aus dem Gesehenen lernen können - natürlich aufgrund seines Entwicklungsalgorithmus. (Florian Rötzer)

Anzeige