Menü

KI-Konferenz AAMAS: Wie Roboter das Sprechen lernen

Um mit Robotern kommunizieren zu können, müssen sie sprechen und Sprache verstehen können. Das sollen sie ähnlich wie Kinder erlernen.

vorlesen Drucken Kommentare lesen 1 Beitrag

Wer die zunehmende Überwachung durch Computer fürchtet, dem muss das HOME Lab an der Indiana University wie ein Alptraum erscheinen. In den Räumen sind nicht nur zahlreiche Kameras und andere Sensoren unauffällig integriert, um alle Bewegungen und Interaktionen der Versuchspersonen zu erfassen. Die Probanden können auch mit tragbaren Eye-Trackern ausgestattet werden, um zu verfolgen, wohin sie gerade schauen.

Chen Yu stellte das Labor beim Workshop on Cognitive Architectures for HRI im Vorfeld der KI-Konferenz AAMAS (Autonomous Agents and Multiagent Systems) in Montréal vor. Natürlich dient die lückenlose Überwachung einem guten Zweck: Es geht darum zu verstehen, wie Kinder in der Interaktion mit den Eltern scheinbar mühelos das Sprechen lernen. Das wiederum kann helfen, das Sprachvermögen von Robotern zu verbessern.

Ein wichtiger Aspekt dabei ist die gemeinsame Aufmerksamkeit von Elternteil und Kind. Mithilfe der Eye-Tracker kann nicht nur genau erfasst werden, wann beide gleichzeitig auf dasselbe Objekt schauen. Aus den Daten lässt sich auch ablesen, wie die gemeinsame Aufmerksamkeit aus dem frei fließenden Spiel hervorgeht. Sowohl das Kind als auch das Elternteil kann dabei die Führung übernehmen. Wenn die Eltern dem Kind folgen, schauen sie vorher meistens auf dessen Gesicht, während das Kind eher auf die Hände guckt. Die gemeinsame Aufmerksamkeit werde umso robuster und anhaltender, so Yu, je mehr Modalitäten sie unterstützen, zur gleichen Blickrichtung also etwa noch Berührungen oder Sprache hinzukommen.

In diesem Zusammenspiel von Blicken, Lautäußerungen und Gesten lernt das Kind aktiv die Sprache. Auf ähnliche Weise sollen auch Roboter lernen, Handlungen zu verstehen und darüber zu reden, wie Christiana Tsiourti (TU Wien) am Beispiel des österreichischen Projekts RALLI erläuterte. Wichtig ist dabei die aktive Komponente: Der Roboter soll nicht nur passiv Wissen aufnehmen, sondern selbst nach Informationen suchen und gegebenenfalls den Menschen um Hilfe bitten.

Der Flaschenhals dabei sei nach wie vor die Wahrnehmung, sagte John E. Laird, der an der University of Michigan erforscht, wie Roboter in der Interaktion neue Fähigkeiten lernen können. Er nutzt dafür die seit 1983 kontinuierlich weiterentwickelte kognitive Architektur Soar, aus der der ITL-Agent (Interactive Task Learning) Rosie hervorgegangen ist. Der sei in der Lage, so Laird, einmal erworbenes Wissen auf andere Aufgaben zu übertragen. So habe Rosie 55 verschiedene Spiele und Puzzles gelernt. Dabei wurde gezählt, wie viele Worte nötig waren, um ein Spiel zu erlernen. Mit über 200 Worten erwies sich Killer-Sudoku zunächst als am aufwendigsten. Wenn Rosie vorher aber bereits andere Spiele gelernt hatte, waren deutlich weniger Worte notwendig, weil Konzepte aus diesen Spielen auf das neue übertragen werden konnten.

Laird zeigte auch die Videoaufzeichnung eines Experiments in virtueller Realität, bei dem der Agent verschiedene Handlungen in einer Küche lernte. Wann immer er einen Begriff nicht verstand, bat er den Menschen um eine Erklärung, etwa als er eine Getränkedose in den Kühlschrank stellen sollte. Als danach erneut ein Getränk weggeräumt werden sollte, brachte Rosie es in den Kühlschrank, ohne zu fragen.

Die Mensch-Agent-Dialoge klingen noch etwas sperrig, die Aktionen brauchen Zeit (und werden daher in den Videos gerne beschleunigt), aber der Ansatz wirkt vielversprechend. Auch beim RoboCup ist in der Liga für Haushaltsroboter die Möglichkeit, den Menschen um Hilfe zu bitten, neu eingeführt worden. Autonome Fahrzeuge, die an der Ampel Fußgänger nach dem Weg zum Bahnhof fragen, wird es in absehbarer Zeit zwar wohl noch nicht geben. Aber die Gespräche mit Robotern und Avataren könnten schon bald interessanter und vielfältiger werden. (olb)