Mehr Körpereinsatz, bitte!

Im Zuge des Hypes um selbstlernende Algorithmen drohen KI-Forscher heute wieder zu vergessen, was einige Pioniere schon vor über 30 Jahren erkannten: Intelligenz braucht einen Körper.

Lesezeit: 5 Min.
In Pocket speichern
vorlesen Druckansicht Kommentare lesen

(Bild: Shutterstock)

Von

Gouvieux-Chantilly, 1985: Rodney Brooks blickt während seines Vortrags auf dem Zweiten Internationalen Symposium der Roboterforschung in viele irritierte Gesichter. Der MIT-Informatiker erzählt, er habe einen intelligenten Roboter namens Allen gebaut – und dabei alles verworfen, was der KI-Forschung heilig ist: In Allens System sei jede Spur von abstrakten Algorithmen und internen Berechnungen eliminiert. Seine "Intelligenz" stecke vielmehr im Körper.

Allen reagiere allein mithilfe einer intelligenten Mechanik auf sensorisch erfasste Umweltreize mit sinnvollen Bewegungen. Vollmundig behauptet Brooks: Sein Roboter funktioniere besser als alles, was man mit dem alten Ansatz zuvor gebaut habe. Tatsächlich sehen die Zuschauer in einem Video, wie Allen einen Korridor hinuntersaust und geschickt herannahenden Menschen ausweicht.

TR 03/2018

Später sollte Brooks berühmt werden durch Schöpfungen wie den Staubsaugerroboter Roomba oder eine kollegiale Maschine namens Baxter. Doch damals blickte ihm nur Unverständnis entgegen. Brooks konnte nicht mit seitenlangen Ausdrucken von Gleichungen oder komplexen Algorithmen aufwarten. So was war doch keine ernsthafte Forschung! "Warum wirft dieser junge Mann seine Karriere weg?", flüsterten sich der Vorsitzende der Konferenz und ein Kollege zu, wie sich Brooks später in seinem Buch "Menschenmaschinen" erinnert.

Mit dem Ansatz einer verkörperten Intelligenz, die Sensorik und Motorik verknüpft (Embodiment), stand Brooks vor mehr als 30 Jahren völlig quer zum Zeitgeist. Die KI war sehr "verkopft", Intelligenz galt als abstrakte Symbolverarbeitung. Was zählte, war die Software, nicht die Hardware, das "Gehirn", und nicht der "Körper", in dem das KI-Programm läuft.

Der Ansatz der klassischen KI war durchaus erfolgreich, besonders dort, wo sich Menschen schwertun, etwa beim Beweisen mathematischer Theoreme oder dem Lösen abstrakter Probleme. Doch er scheiterte an Aufgaben, die Menschen leicht von der Hand gehen: etwa ein Glas zu greifen oder sich in einer unübersichtlichen Umgebung zu bewegen. Denn dafür mussten Bewegungsmodelle aufwendig einprogrammiert und kontinuierlich aktualisiert werden, damit sie mit der sich stets verändernden Welt Schritt halten konnten. Das hatte sich schon bei dem berühmten Roboter Shakey aus den 1970ern gezeigt: Shakeys Umgang mit der Welt beruhte auf endlosen internen Berechnungen. Er lebte in statischen und übersichtlichen Räumen und brauchte Stunden, um einen kurzen Weg zurückzulegen und dabei etwa einen farbigen Klotz von einem Raum in einen anderen zu schieben.

Brooks nun vertrat die provokante These, dass Intelligenz immer einen Körper benötige, und konzentrierte sich auf einfacheres, intelligentes Verhalten. So stellte er zum Beispiel die Frage: Wie kann das winzige Gehirn eines Insekts die Bewegung seiner sechs Beine koordinieren? Seine Antwort: Nicht indem es die Umwelt abstrakt berechnet. Intelligentes Verhalten entwickele sich stattdessen, indem sich ein Organismus mit seinem Körper in seiner Umwelt bewegt und ein Feedback von dort erhält. "Die Welt ist sich selbst ihr bestes Modell", war einer seiner Slogans. Brooks wollte seine Roboter dazu bringen, so schnell auf Sensoren zu reagieren, dass gar kein detailliertes Rechenmodell der Welt nötig war.

Sein heute berühmter sechsbeiniger Laufroboter Genghis etwa orientierte sich am simplen reaktiven Verhalten von Insekten. Er konnte so mittels Infrarotsensoren Säugetiere anhand deren Körperwärme aufspüren. Statt alle Sinnesdaten zu sammeln, auszuwerten und dann den nächsten Schritt zu planen, hatte Brooks die Sensoren direkt an eine Beutesuchfunktion gekoppelt – in diesem Fall die einfache Vorgabe: "Folge der Wärmequelle!" Die wiederum war mit der Gehfunktion verbunden. Gleichzeitig wurde die Ausführung aller anderen Verhaltensmuster unterdrückt.

"Rodney Brooks hat auf seine provokative Art viel dazu beigetragen, das etablierte Feld der KI aus seiner Komfortzone zu bringen", sagt die Informatikerin Verena Hafner, die an der HU Berlin Roboter mit verkörperter Intelligenz entwickelt. Tatsächlich machte der Wissenschaftler, der "seine Karriere wegwirft", in den folgenden Jahren ebendies – Karriere – und wurde zu einem der innovativsten Forscher auf seinem Gebiet.

Doch seine Methode hatte auch entscheidende Nachteile: Die künstlichen Insektenwesen reagierten zwar in Echtzeit auf Impulse aus der Umwelt, konnten also auf dem Weg zur Wärmequelle über unebene Böden laufen und Hindernissen ausweichen. Was sie allerdings nicht schafften: aus erlebten Eindrücken der Umwelt zu lernen und ihre Handlung daraufhin zu verändern. Denn dazu hätte es etliche interne Berechnungen gebraucht. Der Informatiker Rolf Pfeifer von der Uni Zürich suchte deshalb nach einem Mittelweg zwischen der klassischen KI und dem Ansatz von Brooks. Berechnungen ja – aber diese durch Interaktion eines Roboters mit der Umwelt auf ein Minimum reduzieren. Ein Beispiel wäre das Greifen einer Tasse.

Die klassische KI würde ein visuelles Bild der Tasse erstellen, das zeigt, wie der Henkel gedreht und wie weit die Tasse entfernt ist. Sie würde den Arm und die Finger des Roboters modellieren und auf dieser Datengrundlage das Greifen minutiös planen. Anders der verkörperte Ansatz: "Dabei orientiert man sich daran, wie Menschen eine Tasse greifen", sagt Verena Hafner. "Durch die Form des Glases, die Form der menschlichen Hand und die sensomotorische Interaktion zwischen beiden müssen wir nicht millimetergenau berechnen, wo unsere Hand das Glas anfasst." Die Hand greift, die Finger schließen sich um das Glas und passen sich automatisch dessen Form an. Die weiche Hand fungiert dabei als Sensor. Als Feedback dienen etwa Druck und Reibung. Solche Abläufe könne man mittlerweile recht gut in künstliche Systeme implementieren, so Hafner.

"Die Welt selbst liefert wichtige Lösungsimpulse", bestätigt Manfred Hild, Professor für Digitale Systeme an der Beuth Hochschule für Technik Berlin. "Neuere Ansätze zeigen, dass es oft zu besseren Lösungen in der Robotik führt, wenn der Körper weniger durch Rechenleistung kontrolliert wird." Hilds eigener Roboter Myon lernt genau aus solchen Interaktionen. In Kooperation mit der Komischen Oper in Berlin hat Myon, dessen Körperteile ohne zentrale Steuerung auskommen, bis zu einem gewissen Grad das Dirigieren gelernt. Ein Dirigent hat ihn dafür buchstäblich an die Hand genommen und mit ihm die Bewegungen durchgeführt. Über sensorische Informationen spürte Myon, in welcher Position sich der Arm des Dirigenten zu bestimmten Zeitpunkten befand. Dann konnte er versuchen, diese Bewegungen nachzuahmen. Am Ende dirigierte Myon auf der Berliner Bühne eine kurze Passage eines Musicals – wenn auch noch etwas ungelenk.

Wem das Prinzip bekannt vorkommt, liegt richtig: So lernen auch Kinder. Bei ihnen versucht sich die verkörperte KI daher, den einen oder anderen Trick abzuschauen. Der Effekt könnte sogar über bessere motorische Leistungen hinausgehen. Denn immer mehr zeigt sich: Aus dem physischen Umgang mit der Umwelt erwachsen auch geistige Prozesse. Wenn ein Kind nach einer zu weit entfernten Tasse greift, wird es scheitern. Ist aber die Mutter in der Nähe, wird sie dem Kleinen die Tasse näher heranschieben. Dadurch lernt das Kind unbewusst: Wenn ich meinen Arm nach einer Sache ausstrecke, sie aber nicht greife, kann ich unter Umständen die Unterstützung der Eltern bekommen. "Daraus entwickeln sich in natürlicher Weise Zeigegesten", so Manfred Hild. Er ist überzeugt, dass sich dieser Lernprozess auch in Robotern anstoßen lässt.

Tatsächlich zeichnet sich dies bereits in einer Studie von Forschern um den Informatiker John Lones von der University of Hertfordshire aus dem Jahr 2016 ab. Die Roboter konnten über verschiedene Sensoren Gegenstände im Raum und eine Energiequelle in ihrer Nähe aufspüren, die sie zum "Auftanken" benötigten. Welche kognitiven Fertigkeiten sie entwickelten, hing dabei davon ab, ob die Roboter zuvor in einer abwechslungsreichen oder monotonen Umgebung "aufgewachsen" waren. Einer hatte im Labor bereits Versuche durchlaufen, in denen er um Blechbüchsen herumfahren musste und sie leicht anstieß.

Er fand die Energiequelle auch dann, wenn die Forscher sie hinter diesen Blechbüchsen versteckten. Bis zu einem gewissen Grad schien der künstliche Nachwuchs eine typisch menschliche kognitive Fertigkeit erworben zu haben: ein Verständnis für Objektpermanenz, also dafür, dass ein Gegenstand auch dann noch existiert, wenn er nicht mehr sichtbar ist. Ein baugleicher Roboter hingegen, der seine "Kindheit" in einer kleinen Box mit wenig Spielraum verbracht hatte, fand die verborgene Energiequelle hinter den Blechbüchsen nicht.

Bislang allerdings steckt die Embodiment-Forschung noch in den Kinderschuhen. So etwa scheitern bis heute auch "verkörperte" Roboter immer wieder in unübersichtlichen, sich verändernden Umgebungen. Hinzu kommt nach wie vor eine gewisse Skepsis. "Vor allem Forscher aus der kognitivistischen Richtung mit ihrer abstrakten Symbolverarbeitung haben wenig Freude an dem Ansatz", sagt der Pionier der verkörperten KI, Rolf Pfeifer.

Im großen Hype um Deep Learning verschwindet er derzeit sogar völlig aus der Wahrnehmung. Denn dort bleibt jegliche Verkörperung außen vor. "All diese Algorithmen, die von einer realen Umwelt abgeschnitten sind, muss man mit riesigen Datenmengen wie Hunderttausenden von Katzenbildern füttern, damit sie diese sicher erkennen können", sagt Pfeifer. Dennoch hätten sie keinen wirklichen Begriff von Katzen, "wissen" also nicht, dass eine Katze Krallen hat oder dass sie frisst.

Sollen Maschinen also den nächsten großen Schritt Richtung menschlicher Intelligenz machen, müssen sich beide Ansätze vereinen. Deep-Learning-Algorithmen könnten dann von biologischen Wesen lernen. Statt Tausender Katzenbilder würden zum Lernen einige wenige genügen. "Einem kleinen Kind, das Gelegenheit hat, mit seinem Körper die Umwelt zu erkunden, reichen schließlich einige wenige Situationen mit Katzen aus, damit es diese erkennen kann", meint Pfeifer. Echtes Begreifen hat eben viel mit Greifen zu tun – und dafür ist die Welt immer noch das beste Modell.

(bsc)