Menü

KI-Konferenz IJCAI: Künstliche Agenten brauchen viel Verständnis

Roboter sollen lernen, Handlungen verstehen und nachfragen: Auf mehreren Konferenzen in Stockholm diskutieren Forscher über künstliche Intelligenz.

Von
vorlesen Drucken Kommentare lesen 21 Beiträge
Auge, Künstliche Intelligenz, KI

(Bild: Orlando, gemeinfrei (Creative Commons CC0))

Das Zentrum der Forschungen zur künstlichen Intelligenz befindet sich in diesen Tagen in Stockholm. Nach vierjähriger Vorbereitung versammeln sich in der schwedischen Hauptstadt unter dem Titel "Federated Artificial Intelligence Meeting" (FAIM) sechs große Konferenzen, die sich mit verschiedenen Aspekten des Forschungsfeldes beschäftigen.

Die wichtigste und älteste ist die erstmals 1969 in Washington, D.C., veranstaltete IJCAI (International Joint Conference on Artificial Intelligence), die sich in diesem Jahr mit der ECAI (European Conference on Artificial Intelligence) vereinigt hat. Zur gleichen Zeit treffen sich auch die ICML (International Conference on Machine Learning), die AAMAS (International Conference on Autonomous Agents and Multiagent Systems), die ICCBR (International Conference on Case-Based Reasoning) sowie das SoCS (Symposium on Combinatorial Search).

Parallel dazu finden in den Räumen der Stockholmer Messe auch die Weltmeisterschaften im Computerschach statt. Die Organisatoren hoffen, durch einen intensiveren Austausch zwischen den spezialisierten Teildisziplinen die Forschungen zur künstlichen Intelligenz insgesamt voranzubringen.

Dazu gehört auch, das gegenseitige Verständnis zwischen künstlicher und menschlicher Intelligenz zu verbessern. Wie Menschen und künstliche Agenten im Team zusammenarbeiten und dabei das jeweils richtige Maß an Autonomie finden, war etwa das Thema eines von insgesamt 66 Workshops, die von Freitag bis Sonntag stattfinden. Dabei ging es um das Zusammenspiel von autonomen Fahrzeugen mit Autos, die von Menschen gelenkt werden, ebenso wie um autonome Funktionen in Telepräsenzrobotern oder Roboterleibwächter, die prominente Personen vor zudringlichen Fans abschirmen sollen.

Eher das Verständnis der Agenten untereinander thematisierte der Vortrag von Bernhard Nebel (Uni Freiburg), der sich mit der Frage beschäftigte, wie sich Roboter kollisionsfrei zu ihren Zielen bewegen können, auch wenn sie über die Pläne der anderen Roboter nicht informiert sind und zwischen ihnen keine Kommunikation stattfindet.

Es komme darauf an, andere Agenten nicht einfach nur als Teil der Umwelt wahrzunehmen, sondern ihre Intentionen und die Kriterien ihres Handelns zu verstehen, betonte Jakob N. Foerster (OpenAI / University of Oxford). Bei dem von ihm vorgestellten Konzept LOLA (Learning with Opponent-Learning Awareness) erwachse Kooperation aus der Verfolgung des Eigeninteresses in Kombination mit dem Verständnis für andere.

Viel Verständnis für Roboter zeigte Joyce Y. Chai (Michigan State University), die sich in einem Plenarvortrag mit der Frage beschäftigte, wie ihnen neue Fertigkeiten auf möglichst natürliche Weise vermittelt werden können. Dabei ging es ihr vorrangig um Erläuterungen in natürlicher Sprache, kombiniert mit Gesten und dem Vormachen von Handlungen. Dafür müsse der Roboter Fragen stellen können, wenn er etwa eine Sequenz nicht versteht, und in der Lage sein Worte in Handlungen umzusetzen. Für die Entwicklung des semantischen Sprachverständnisses nutzt Chai das TACoS Dataset mit annotierten Videosequenzen.

Wie der Dialog mit dem Roboter funktionieren kann, zeigte sie in einem Video, bei dem der Roboter Baxter verschiedene Gegenstände bewegen sollte. In einem weiteren Video ging es um die Zubereitung eines Smoothies, der jedoch die manipulativen Fähigkeiten des Roboters derzeit noch überfordert. Allerdings konnte er eine geschälte Orange erkennen und sie in einen bereitstehenden Mixer legen.

Ein ausgedehnter, offener Dialog mit einem Roboter sei aber noch nicht in Reichweite, räumte Chai ein. Dafür sei Alltagswissen erforderlich. Ganz zu schweigen von den umfassenden Fähigkeiten eines Haushaltsroboters wie Rosie aus der Cartoon-Serie The Jetsons, mit dem Chai ihren Vortrag begonnen hatte.

Bei künstlicher Intelligenz gehe es nicht nur um Mustererkennung, betonte Josh Tenenbaum (Massachusetts Institute of Technology) in einem weiteren Plenarvortrag. Es gehe darum, ein Modell der Welt zu entwickeln. Um dies auch Robotern und künstlichen Agenten zu vermitteln, setzt er auf "reverse engineering": Er will im Detail nachvollziehen, wie sich bei Kindern Intelligenz entwickelt, um diesen Prozess dann auf die Maschine zu übertragen.

Sein besonderes Interesse gilt dabei dem intuitiven Verständnis für Physik und Psychologie, das sich bereits im frühesten Lebensalter zeigt. Es sei nach wie vor eine offene Frage, so Tenenbaum, über welche Fähigkeiten der Mensch bereits bei der Geburt verfügt und welche er wann lernt. Im Programmieren, im Verfassen und Ändern von Programmcodes sieht Tenenbaum aber viele Parallelen zum menschlichen Lernen: Es würden Parameter angepasst, Fehler gefunden und behoben, bereits existierender Code adaptiert und manchmal auch ganz neue Programmiersprachen entwickelt.

Der Mensch lerne zunächst, die "game engine" im eigenen Kopf zu nutzen. Dann lerne er mit der game engine und verstehe sie schließlich selbst. (Hans-Arthur Marsiske) / (tiw)

Anzeige