KI auf dem Fußballfeld

Praktische Forschung bei der RoboCup-Weltmeisterschaft

Wissen | Hintergrund

Um einen Fußballroboter zu bauen, braucht es vielfältiges Wissen, das beim Start des RoboCup bestenfalls in den Kinderschuhen steckte. Wie ist der Stand nach zehn Jahren Forschung? Was können die realen Roboter? Was lässt sich zumindest in Simulationen verwirklichen? Und wofür ist das Ganze bereits heute nützlich? Eine Zwischenbilanz, gezogen von aktiven RoboCuppern.

Ein Roboter ist gerade so gut wie die schwächste seiner Komponenten, was in einer Wettbewerbssituation wie dem RoboCup besonders schnell offenbar wird. Robotik ist daher auch beim RoboCup zuerst einmal Systemintegration. Bei einem autonomen, unabhängig von menschlicher Steuerung agierenden Roboter müssen Mechanik, Elektronik, Kommunikation, Wahrnehmung der Umwelt und Verhaltenssteuerung gut zusammenpassen und sich ergänzen. Robuste Systeme sind gefragt, bei denen der Ausfall einer Komponente aufgefangen und kompensiert werden kann. Lernende Systeme sind notwendig, weil nicht alle Roboterfähigkeiten per Hand programmiert werden können, sondern vom Roboter aus der eigenen Erfahrung erlernt werden müssen.

Um ein System integrieren zu können, muss man aber zunächst einmal alle benötigten Komponenten und Techniken einzeln beherrschen. Beim RoboCup hat dies zu unterschiedlichen Ligen geführt, die sich jeweils anderen Schwerpunkten widmen, auch wenn grundlegende Fragen bis zu einem gewissen Grad natürlich bei allen beantwortet sein müssen, bevor die Roboter sinnvoll agieren können. Nicht alle Ligen drehen sich dabei um Fußball: Autonome Roboter können schließlich auch für wirklich ernste Zwecke eingesetzt werden.

Menschen bewegen sich in der Welt, indem Objekte und Räume vor allem visuell wahrgenommen und erkannt werden. Dies geschieht anhand der Form und Farbe und mit Hilfe eines mentalen Modells. Autonome Roboter müssen ihre Umgebung ebenfalls wahrnehmen können. Sollen sie dabei mehr leisten als eine Hindernisvermeidung, reichen einfache Abstandssensoren nicht aus, sondern sie müssen sehen können, wofür die RoboCup-Roboter Kameras benutzen. Derzeit reicht die optische Wahrnehmungsfähigkeit realer Fußballroboter allerdings noch nicht annähernd an das menschliche Sehvermögen heran: In der stark vereinfachten Welt der Fußballligen werden die wichtigen Objekte mit Farben kodiert.

Um sich in beliebigen Situationen zurechtfinden zu können, sollten Roboter Objekte aber vor allem anhand ihrer Form erkennen. Dies erfordert nicht nur bessere Bildsensoren, sondern auch eine deutlich höhere Rechenleistung: In der Forschung zur Künstlichen Intelligenz gibt es die Daumenregel, dass alles, was Menschen ohne nachzudenken und in Bruchteilen von Sekunden machen können, für Computer sehr schwer und aufwendig zu berechnen ist. Objekt- oder Gesichtserkennung ist eine solche unbewusste menschliche Fähigkeit, die nur mit großem Aufwand nachzubilden ist.

Dies gilt auch für das zweiäugige Sehen des Menschen. Stereoskopie ist eine sehr robuste Form der Abstandsschätzung und erlaubt eine dreidimensionale Rekonstruktion der Umwelt. Bisher verfügt aber kaum ein Roboter über zwei Kameras und die notwendige Rechenleistung. Derzeit ist die Fußball-Welt beim RoboCup daher bis auf wenige Ausnahmen zweidimensional: Die Roboter bewegen sich in einer Ebene, suchen nach dem Ball auf dieser Ebene und brauchen keine Anstrengungen zu unternehmen, um die Welt dreidimensional zu erfassen. Erst langsam wird dies ein Thema, zum Beispiel bei hohen Bällen in der Middle-Size-Liga.

Vor allem humanoide Roboter, die seit 2002 in einer eigenen RoboCup-Liga antreten, brauchen über die Erkennung der Umwelt hinaus auch ein Körpergefühl. Sie müssen spüren, wenn das Gleichgewicht in Gefahr ist, und merken, wenn die Energie nachlässt oder wenn ein Gelenk nicht präzise funktioniert. Sie benötigen ein Empfinden für ihre Lage im Raum, damit sie Gehörtes und Gesehenes richtig einordnen können. Es gibt viele Möglichkeiten, solche propriozeptiven Fähigkeiten durch Hardware und Software zu realisieren, und es gehört zu den Zielen des RoboCup, die unterschiedlichen Varianten zu ergründen und zu evaluieren. Die Gelenkstellungen können durch Rückmeldung der Motoren ebenso erfasst werden wie die notwendige Kraft, um das Gelenk zu bewegen oder in seiner Stellung zu halten. Lage und Geschwindigkeit einzelner Glieder lassen sich durch Neigungssensoren erfassen, der Kontakt zu Objekten wie dem Spielfeld durch Kraftsensoren.

Alle diese Daten beeinflussen sich: Durch Ausnutzung ihrer Abhängigkeiten kann die Wahrnehmung entscheidend verbessert werden. Aus diesem vor allem bei den humanoiden Robotern sehr engen Zusammenhang von Körper und Steuerung werden sich durch Verfahren der Co-Evolution von Mechanik, Sensorik und intelligenter Steuerung neue mechanische Formen, bessere Sensoren und bessere Verhaltenssteuerungen weiterentwickeln lassen.

Damit, dass sich ein Roboter prinzipiell autonom bewegen kann, ist es beim Fußball noch lange nicht getan: Ebenso wichtig sind Steuerung und Kooperation. So dürfen nicht alle Roboter gleichzeitig zum Ball gehen, was inzwischen alle Teams beherrschen. Was aber ist die optimale Positionierung von Robotern? Wann sollte ein Roboter einen Pass spielen, wann allein zum Tor dribbeln? Bei RoboCup sind die meisten Roboter reaktiv programmiert und arbeiten mit einer Art Zustandsautomat als Intelligenz-Ersatz. Treffen sensorielle Werte ein wie „Ball vor Dir, Du schaust zum Tor“, so werden bestimmte elementare Verhalten getriggert: „schieß jetzt“. In einer sehr dynamischen Umgebung erzeugt die ständige Veränderung der Sensorwerte immer neue Zustände. Aus den darüber getriggerten Verhaltensmustern ergibt sich ein Zusammenspiel mit sehr einfachen Automaten, das trotzdem zu komplexen Mustern führt.

Das reicht aber noch nicht. Im Fußball ist vorausschauendes und geplantes Verhalten aus strategischen Gründen sehr wichtig: Man kann den Gegner in die Falle locken, einen Pass antäuschen, man kann per Doppelpass den Gegner überholen. Solche planenden Funktionen müssen in Zukunft die Auswahl eines reaktiven Verhaltens ergänzen und verbessern. Ob dies gelingt, hängt sehr stark von den mechanischen und sensoriellen Fähigkeiten des Systems ab: Pässe, die niemand annehmen kann oder die die Bildverarbeitung des Mitspielers nicht erkennt, führen zu nichts, auch wenn der Computer den besten Plan für die aktuelle Spielsituation erstellt hat.

In der Simulationsliga sind die planerischen Fähigkeiten bisher am weitesten entwickelt worden. Sie konzentriert sich auf wesentliche physikalische Eigenschaften - die Umsetzung der dort entwickelten Algorithmen auf reale Roboter ist daher zwar prinzipiell möglich, erfordert aber oft die Erweiterung der Konzepte und Algorithmen für die Anforderungen in realen Umgebungen.

Deswegen spielen Weiterentwicklungen beim Lernen die vielleicht wichtigste Rolle beim aktuellen Stand der autonomen Robotik. Wir wollen nicht alle Spielzüge einzeln programmieren. Wir wollen nicht die Aktuatorik der Roboter präzise messen müssen, um die Parameter der Verhaltenssteuerung in mühevoller Kleinarbeit anzupassen. Während das bei den Robotern auf Rädern in der Middle-Size- und Small-Size-Liga bis zu einem gewissen Grad noch geht, ist das bei laufenden Robotern nicht mehr machbar. Wir möchten deshalb, dass die Roboter ihre Fähigkeiten möglichst erlernen, so, wie ein Kind mit seinem Körper umzugehen, zu greifen und zu gehen lernt.

Die Liga, in der bisher die meisten Lernexperimente erfolgreich durchgeführt worden sind, ist die Simulationsliga. Der Grund dafür ist klar: Die virtuellen Spieler haben keinen Verschleiß, und über geeignete Skripte kann man sie automatisch immer wieder die gleichen Versuche ausführen lassen. Trotz der hohen Rechenleistung heutiger Computer spielen Komplexitätsfragen aber auch hier eine große Rolle. Damit das Ergebnis nicht erst nach vielen tausend Jahren unermüdlicher Rechnerleistung verfügbar ist, ist neben einem guten Design der Experimente die Erforschung effizienter Lernalgorithmen unbedingt notwendig. Der Simulationsfußball stellt ein riesiges Reservoir an Experimenten für das maschinelle Lernen bereit. Verfahren des Maschinellen Lernens helfen bei der Entschlüsselung von Genomen, der effizienten Fertigungsplanung, der Gestaltung von Oberflächen und vielen anderen Aufgaben.

Verstärkungslernen ist hierbei am weitesten verbreitet: Beim Reinforcement Learning treffen untrainierte Spieler aufeinander, gute Aktionen und Entscheidungen werden belohnt, schlechte Aktionen werden bestraft. Das erfordert eine Kodierung und Erkennung der Spielsituation sowie eine Kodierung der möglichen Aktionen.

Lernexperimente mit vierbeinigen Robotern haben unter anderem zu der Entdeckung von schnelleren Gangarten geführt, die von den Konstrukteuren nicht angedacht waren. Simulierte Roboter beherrschen inzwischen den Doppelpass, und es gibt Roboter, die Farben und Geometrie eines Spielfeldes automatisch erkennen oder gelernt haben, den Ball zu führen oder abzugeben. Bis Roboter wirklich die Spielweise des Gegners einschätzen, strategische Varianten benutzen und in optimaler Formation auftreten können, bleibt aber noch viel zu tun - auch wenn ein gutes Stück des Weges bereits hinter uns liegt.

Als die Middle-Size-Liga 1997 in Nagoya startete, spielten die Teams aus je fünf Robotern noch auf Feldern von etwa 4 x 8 Metern mit einer Bande wie beim Eishockey. Inzwischen hat das Spielfeld keine Bande mehr und ist mit 8 x 12 Metern dreimal so groß. Wie in allen Ligen agieren die Roboter ohne jeden menschlichen Eingriff. Für die vollständig autonome Steuerung sorgen zumeist auf jedem Roboter integrierte Notebook-PCs, über deren WLAN-Schnittstellen die Spieler einer Mannschaft Informationen austauschen.

Vergrößern Über dem omnidirektionalen Antrieb mit Batterien, Motorcontroller und Schussvorrichtung sitzt bei Middle-Size-Robotern der Steuerrechner und darüber eine nach oben auf einen Spiegel gerichtete Kamera.

Eines der wichtigsten Merkmale der Middle-Size-Liga ist, die Kombination aus Aktuatoren und Sensoren frei wählen zu können, solange die vom Reglement gesetzten Rahmenbedingungen für Größe (maximal 50 cm Durchmesser), Form und Gewicht (maximal 40 Kilogramm) nicht verletzt werden. Die zumeist mit Hilfe von Videokameras und abstandsmessenden Sensoren wie Laserscanner, Ultraschallsensoren, Infrarot-Sensoren oder Berührungssensoren erfassten Daten werden direkt vom Steuerrechner des Roboters verarbeitet.

Robustheit und Spielfähigkeit der Middle-Size-Roboter haben sich in den letzten Jahren deutlich verbessert. Fast alle können mit Hilfe omnidirektionaler Räder in eine beliebige Richtung fahren, ohne sich vorher drehen zu müssen. Die Maximalgeschwindigkeit liegt heute um 3,5 m/s, während im Jahr 2000 nur etwa 1 m/s kontrollierbar war. Bei der Selbstlokalisierung, der genauen Bestimmung der Roboterposition, haben alle Teams große Fortschritte erzielt, wozu eine adaptive Bildverarbeitung, die zunehmend besser mit veränderlichen Lichtbedingungen umgehen kann, erheblich beigetragen hat.

Vergrößern Kamerabild und Auswertung: Die Sicht eines Middle-Size-Roboters durch den omnidirektionalen Spiegel auf das Spielfeld genügt trotz Verzerrung als Basis für die Orientierung.

In der Middle-Size-Liga nimmt meist eine einzige nach oben gerichtete Kamera die Reflexion eines konischen oder hyperbolischen Spiegels auf. Sie liefert so eine Rundumsicht des Spielfeldes, bei der die Winkel vom Roboter aus zu den Objekten auch ohne vollständige Entzerrung des omnidirektionalen Bildes korrekt sind. Wichtig für die Selbstlokalisation ist die Erkennung der weißen Linien, für die Navigation der anderen Roboter und für das Spiel müssen natürlich auch zentrale Objekte wie der orange Ball und das blaue oder gelbe Tor anhand ihrer Farben sicher erkannt werden - selbst wenn der Roboter schnell fährt oder die Beleuchtung sich plötzlich ändert. Angepasst an die erzielten Fortschritte wird die garantierte Ausleuchtung des Spielfeldes in Zukunft ganz entfallen.

In Nagoya konnte es noch passieren, dass ein Roboter mit voller Fahrt auf die Bande zufuhr, weil er das T-Shirt einer Zuschauerin für den Ball hielt. Inzwischen gibt es bewährte Methoden, die auch unter den Bedingungen einer unsicheren und unvollständigen Wahrnehmung die Situation zuverlässig erfassen. Schlüssel dazu sind stochastische Verfahren, wie sie auch für die Navigation in der Luftfahrt oder vom siegreichen Team Stanley bei der zweiten Grand Challenge benutzt wurden, einer autonomen Autofahrt über 132 Meilen durch die kalifornische Wüste. Präzise Selbstlokalisierung ist eine Basisfähigkeit für autonome mobile Systeme, um Fähigkeiten wie Bahnplanung oder eine fortschrittliche Regelung der Ballführung entwickeln zu können.

Zentrales Ziel in der Middle-Size-Liga ist derzeit eine weiter verbesserte Situationserkennung, damit die Roboter länger andauernde Aktionen wie kooperative Spielzüge, Stellungsspiel oder Passspiel planen und ausführen können. Hierzu gehört nicht nur die Analyse der Spielsituationen selbst, sondern auch die Suche nach Mustern in der Verhaltensweise einer gegnerischen Mannschaft. Die optimale Zuordnung von Aufgaben zu den Robotern und deren Koordination ist dabei neben individuellen Fähigkeiten wie geschickter Ballannahme und präziser Ballführung entscheidend. Zu den Einzelfähigkeiten gehört beispielsweise auch eine geeignete Regelung, die am besten durch Verfahren wie Reinforcement Learning bewerkstelligt werden kann.

In naher Zukunft wird sich die Spielfeldgröße und die Anzahl von Robotern je Team deutlich erhöhen, um letztendlich elf Roboter pro Mannschaft auf dem Feld zu haben. Dabei wird aus der Not, dass kaum ein Team die finanziellen und personellen Mittel für elf Roboter hat, eine Tugend gemacht: Um die Roboter in gemischten Mannschaften kombinieren zu können, muss man vieles über Kooperation und gemeinsame Situationsinterpretation lernen, was auch in Katastrophenszenarien wichtig wird, wenn Rettungsroboter unterschiedlicher Herkunft ohne große Vorbereitung kooperieren sollen.

Ein hoher Grad an Kooperation zeichnet auch die Small-Size-Liga aus. Zusätzlich müssen sich die kleinsten Roboter beim RoboCup in einer sehr dynamischen Umgebung behaupten, bieten mit einem Volumen von maximal 18 cm Durchmesser und 15 cm Höhe aber nur Raum für wenige Sensoren und eine geringe Rechenleistung. Anders als in der Middle-Size-Liga, wo jeder Roboter allein mit Bordmitteln seine Umwelt erfassen kann, brauchen die Roboter der Small-Size-Liga daher externe Unterstützung durch ein Global Vision System: Jedes Team bringt über dem 5 x 4,5 Meter großen Feld zwei globale Kameras an. Externe Computer verarbeiten die Bilder in Echtzeit und schätzen die Positionen und Geschwindigkeiten aller Objekte auf dem Feld. Die Roboter tragen farbige Markierungen, damit die Software das „blaue“ vom „gelben“ Team unterscheiden kann. Zusätzliche Farben erlauben den Computern, die Identität des Roboters festzustellen. Nach der Roboterlokalisierung berechnet jeder Computer für seine Fünfermannschaft bis zu 60-Mal pro Sekunde die Aktionen, die die Roboter ausführen sollen, und sendet die entsprechenden Befehle per Funk in einem der öffentlichen Kanäle an die einzelnen Roboter.

Vergrößern Ein typischer Small-Size-Roboter hat vier omnidirektionale Räder, eine per Funk angesteuerte On-board-Elektronik und optional einen schrägen Schussapparat, der den Ball auch hoch schießen kann.

Aus den Kamerabildern lässt sich ein sehr präzises Modell der Spielsituation gewinnen. Allerdings sind die Roboter in dieser Liga gemessen an ihrer Größe und der des Spielfelds mit bis zu 2,5 m/s so schnell, dass ständig eine Projektion der vorhandenen Daten in die Zukunft berechnet werden muss. Wie beim Menschen gibt es eine Verzögerung von bis zu 100 Millisekunden zwischen dem Antreffen sensorischer Informationen und ihrer Bearbeitung: Wenn der Hauptrechner mit der Berechnung der Strategie fertig ist, sind die Roboter bereits 20 bis 25 cm weiter gerollt. Der Computer muss also nicht die Befehle für die zuletzt gesehenen Roboterpositionen berechnen, sondern für die vorhergesagten. Dank der zentralen Datenverarbeitung mit beliebiger Rechenleistung liefert diese Konfiguration trotzdem sichere Basisdaten für die Planung und den Einsatz ausgefeilter Taktiken, wie sie in den anderen Roboterligen im Allgemeinen nicht anzutreffen sind. Verschiedene Freistoßvarianten, Pässe, Doppelpässe und mitunter auch „One-Touch-Soccer“ sind bei Small-Size-Spielen zu beobachten.

Die Konstruktion der Roboter ist dafür ebenso wichtig wie die Software. Innerhalb der Größenvorgaben sind den Konstrukteuren kaum Grenzen gesetzt. Durch die Übernahme erfolgreicher Ansätze - in allen Ligen stellen die meisten Teams ihre Baupläne nach dem Wettbewerb frei zur Verfügung - hat sich im Laufe der Jahre ein gewisses Standardschema entwickelt, nach dem die Roboter aufgebaut sind. Drei bis vier Elektromotoren treiben zumeist omnidirektionale Räder an, die das direkte Fahren und gleichzeitige Rotieren in alle Richtungen erlauben. Zum Schießen des handelsüblichen orangefarbenen Golfballs wird ein Metallbolzen verwendet, der durch eine magnetische Spule bewegt wird und den Ball auf hohe Geschwindigkeiten beschleunigt. Um Dribblings und die Annahme von Pässen zu vereinfachen, können die Roboter mit „Dribbelrollen“ ausgestattet werden, die den Ball in Richtung des Roboters rotieren lassen.

In wenigen Jahren sollen Spiele mit minimaler menschlicher Intervention laufen. Ein Bildverarbeitungssystem wird die Einhaltung der Regeln überwachen, wird feststellen, wann beispielsweise ein Freistoß notwendig ist, und ein Schiedsrichterroboter wird den Ball an der richtigen Stelle nach Spielunterbrechungen einsetzen. Ein Mensch wird nur noch selten eingreifen, beispielsweise, um die genaue Position eines Freistoßes mit einem Laserpointer anzuzeigen. Ein automatischer Schiedsrichter, der richtungweisend für die anderen Ligen wäre, ist in dieser Liga eigentlich bereits heute eine Notwendigkeit. Die Roboter überqueren das Feld binnen zwei Sekunden, schießen zu hart, und können dies beliebig oft machen. Aus dieser Situation entwickelt sich kein Zusammenspiel der Roboter. Damit sich Strategien unter realistischeren Bedingungen entfalten, muss eine vom Schiedsrichter überwachte Kostenfunktion den Roboter „virtuelle Energie“ aufwenden lassen, sodass er es sich zweimal überlegen muss, ob er passt oder sprintet.

Nicht nur die energetischen Bedingungen unterscheiden sich beim Rollen und Laufen. Auch die Steuerung der Bewegungen ist bei laufenden Fußballspielern erheblich komplexer und gehört daher bei der Four-Legged-Liga zu den zentralen Themen. Auf dem derzeit noch 6 x 4 m großen Feld starten alle Teams in dieser Liga mit Mannschaften aus vier Aibos, den Roboterhunden, die die Firma Sony ursprünglich als Entertainment-Roboter auf den Markt gebracht hat. Da alle Teams dasselbe vorgefertigte Robotermodell benutzen, können sie sich auf die Entwicklung der Software für die Bildverarbeitung, die Bewegungskontrolle und das über WLAN koordinierte Zusammenspiel der Roboter konzentrieren. Das beliebteste Basissystem ist dabei das Software-Framework des Titelverteidigers GermanTeam. Beim RoboCup 2006 werden 10 der 28 Teams auf dieser Grundlage aufsetzen.

Die völlig autonom agierenden Roboterhunde müssen alle Aufgaben mit Hilfe ihrer bei 585 MHz arbeitenden 64-bittigen MIPS-CPU bewältigen. Allein die im Kopf sitzende Farbkamera des Aibo liefert alle 30 ms ein Bild mit 300 000 Pixeln. Zusätzlich gibt es drei Entfernungssensoren, drei Beschleunigungssensoren im Körper sowie Sensoren für die Winkelmessung der 20 Gelenke, von denen je drei eins der Beine sowie das Genick bewegen. Die restlichen bewegen Kinnlade, Schwanz und Ohren. Auch in dieser Liga wird mit Farbkodierungen gearbeitet: Der Ball ist orange, die Tore sind gelb und hellblau und am Spielfeldrand stehen vier farbige Marken. Die Roboter tragen zur Unterscheidung rote und blaue Trikots.

Die Datenflut ist für die Aibo-CPU trotz dieser Vereinfachung nicht mehr vollständig auswertbar, der Rechner muss schließlich auch rechtzeitig Entscheidungen treffen und die Erteilung der Befehle für die Motoren veranlassen. Deshalb werden bei den Bildern nur die interessanten Teile genauer untersucht: Der Roboter konzentriert seine Aufmerksamkeit auf die wichtigen Dinge. Aber wo sind die?

Bei einem Blickwinkel von etwa 45 Grad müssen sich die Vierbeiner kontinuierlich entscheiden, wann sie sich auf den Ball oder die Gegner konzentrieren, und wann und wohin sie sich umschauen, um ihre Position auf dem Feld zu ermitteln. Bei dieser aktiven Wahrnehmung müssen Kompromisse gefunden werden, die abhängig von der aktuellen Spielsituation sind. Für solche und andere Probleme bei der Verhaltenssteuerung wurden Architekturen zur robusten Entscheidungsfindung bei unsicherem Weltwissen entwickelt sowie Methoden zur Modellierung der Umwelt, die mit sehr wenigen Daten auskommen.

Auch das vierbeinige Laufen des Aibo wird in der Liga kontinuierlich weiterentwickelt. Die zentrale Innovation hierbei stammt vom dreifachen Weltmeister rUNSWift aus Sydney, der mit dem PWalk (parameterized walk) im Jahr 2000 ein stabiles omnidirektionales Laufen vorgestellt hat, das nahezu beliebige Kombinationen aus Vorwärts-, Seitwärts- und Drehbewegungen erlaubt. Als beste Konfiguration erwies sich eine Variante, bei der die Fußball-Aibos auf den Ellenbogen der Vorderbeine laufen.

In den vergangenen drei Jahren gelang es dann, die Laufgeschwindigkeit der Aibos mit Hilfe von evolutionären Algorithmen von anfänglich 15 cm/s auf mehr als 50 cm/s zu steigern. Beim Laufen können die insgesamt zwölf Motoren der vier Beine alle 8 ms einen neuen Bewegungsbefehl erhalten. Je schneller das Laufen wird, um so größer wird auch die Gefahr, dass der Roboter durch eine falsche Bewegung stolpert und fällt. Zwar kann er auch schnell wieder aufstehen, aber der Ball ist inzwischen weg. Man kann die physikalischen Zusammenhänge zwischen Gelenkstellungen, Schwerpunktverlagerung und Bewegung nicht mehr so modellieren, dass sich die für ein gutes Laufen erforderlichen Motor-Ansteuerungen berechnen ließen. Hier helfen nur noch Methoden des Maschinellen Lernens, bei denen der Roboter durch Probieren selbst begreifen muss, wie er eine vorgesehene Bewegung effizient ausführen kann.

Beim Wechsel vom vier- zum zweibeinigen Laufen steigt die Komplexität der Bewegungssteuerung weiter. Die Humanoid-Liga mit menschenähnlichen Robotern hat sich daher erst 2002 etabliert, nachdem die anderen Ligen hinreichende Forschungsergebnisse geliefert hatten, auf denen sich aufbauen ließ. So können Methoden für die Kamera-Kalibrierung und für die Bildauswertung, für die Selbstlokalisierung und für die Steuerung übernommen werden.

Vergrößern Ein humanoider Roboter tritt zum Elfmeter an - noch wartet der Torwart gelassen.

Auch bereits erprobte Lernverfahren lassen sich anpassen. Mit ihrer Hilfe kann die Aktuatorik der Roboter verbessert werden, wobei Software und Hardware bisher noch lange nicht ausgereift sind. Anfangs waren die humanoiden Roboter noch gar nicht in der Lage, gegeneinander zu spielen. Sie führten lediglich einfachere Tests und Leistungsvergleiche durch: Im Humanoid Walk mussten die Roboter um einen Pfosten laufen. Im Freestyle-Wettbewerb hatten die Roboter fünf Minuten Zeit, eine Jury von ihren Qualitäten auf unebenem Grund oder bei der Ballmanipulation zu überzeugen. Beim RoboCup 2005 in Osaka fanden neben Elfmeterschießen erstmals auch Fußballspiele mit zwei Spielern pro Team statt.

In den ersten Jahren waren auch noch eine externe Stromversorgung und Fernsteuerung der Roboter erlaubt. Seit 2004 müssen die zweibeinigen Roboter vollständig autonom agieren. Lediglich untereinander dürfen sie über WLAN kommunizieren. Wegen der geringen Tragfähigkeit der Roboter nutzen viele Teams Pocket PCs für Bildverarbeitung, Selbstlokalisierung, Verhaltenssteuerung und Bewegungsplanung. Fast alle humanoiden Roboter verwenden Modellbau-Servomotoren. Diese können eine Zielposition anfahren und halten. Mikrocontroller steuern bis zu zwei Dutzend dieser Motoren an und lesen zudem die Sensoren des Roboters ein, typischerweise Neigungssensoren zur Messung von Beschleunigungen und Drehraten, Kraftsensoren beispielsweise unter den Füßen sowie Temperatursensoren. Letztere zeigen die beginnende Überbelastung von Gelenken an, sodass der Roboter rechtzeitig eine Pause einlegen kann.

Die Humanoid Liga ist derzeit die am schnellsten wachsende Liga der fußballspielenden Roboter. Für den Wettbewerb in Bremen haben sich 18 KidSize- und 10 TeenSize-Teams qualifiziert. Aus Deutschland neu dazugekommen sind das Humanoid Team Humboldt und die BreDoBrothers der Universitäten Bremen und Dortmund. Hilfreich für diese neuen Teams ist dabei die Verfügbarkeit von kommerziellen Bausätzen und Robotern. Vorgaben teilen die Humanoiden nicht nur in die zwei Größenklassen KidSize (30-60 cm) und TeenSize (65-130 cm) ein, sondern stellen auch sicher, dass die Füße der Roboter nicht zu groß sind, der Schwerpunkt nicht zu niedrig liegt und die Arme und Beine nicht zu lang oder zu kurz sind. Verglichen mit der Standfläche liegt der Schwerpunkt der menschenähnlichen Roboter deshalb wie bei Menschen so hoch, dass das Halten der Balance, insbesondere beim Laufen und Schießen, eine der zentralen Herausforderungen ist. Einige Roboter können inzwischen nach einem Sturz wieder aufstehen. Nur wenige Teams sind bisher in der Lage, den Roboter die Richtung während des Laufens ändern oder Kurven laufen zu lassen, wie etwa das Team Nimbro der Universität Freiburg. Die meisten Teams implementieren noch Bewegungsmakros für ihre Roboter, bei denen die Gesamtbewegung des Roboters durch Sequenzen einfacher Bewegungen wie „geradeaus gehen, um einen Winkel drehen, wieder geradeaus gehen“ entsteht.

Auch die Koordination von Wahrnehmung und Bewegung bei humanoiden Robotern erfordert neue Entwicklungen: Die Perspektive der Kamera hängt bei ihnen viel stärker von der Eigenbewegung des Roboters ab und muss bei der Bildauswertung zusätzlich berücksichtigt werden. Dazu kann wie bei den Aibos die kinematische Kette vom Boden über die Gelenkstellungen verfolgt werden. Effizienter ist aber die Entwicklung eines vestibulären Systems, bei dem man die Kamera mit Lagesensoren koppelt.

Im Vordergrund der Entwicklung in der Humanoid-Liga steht momentan, die Systeme robuster zu machen. Das betrifft die Roboterhardware, die visuelle Wahrnehmung der Spielsituation und die Verhaltenssteuerung. Insbesondere müssen Stürze vermieden werden, auch wenn die Roboter bei der Ausführung ihres Lauf- oder Schussverhaltens gestört werden. Dazu ist es unabdingbar, die von diversen Sensoren erfassten Informationen, beispielsweise über die Lage des Roboters im Raum, korrekt zu interpretieren, und diese Wahrnehmung bei der Ansteuerung der vielen Servomotoren zu berücksichtigen. Neben der Verbesserung der Robustheit ist auch die Erhöhung der Lauf- und Schussgeschwindigkeit ein wichtiges Thema. Für die kommenden Jahre ist zu erwarten, dass die humanoiden Roboter zuverlässiger, präziser und schneller werden. Ein Meilenstein wird dabei der Wechsel vom Gehen zum Rennen sein.

Während bei den Fußballrobotern die Umgebung ziemlich strukturiert und reglementiert ist, zeigt die Rescue Real Robot Liga direkt, worum es in der Zukunft geht: autonome Roboter, die in schwierigen unstrukturierten Szenarien eingesetzt werden können, was den Bau der Roboter in dieser Liga außerordentlich schwierig macht. In der Rescue Real Robot Liga werden die höchsten Anforderungen an die motorischen und sensorischen Fähigkeiten der Roboter gestellt. Auf den Robotern sind daher leistungsfähige Rechner und eine Vielzahl von Sensoren untergebracht, die ihnen grundsätzlich vollkommen autonomes Handeln erlauben.

Wichtig ist aber auch, wie beweglich die Rettungsroboter sind, wie gut sie verschiedenste Hindernisse bewältigen können: Sie operieren in so genannten Testarenen mit unterschiedlichen Schwierigkeitszonen, die Katastrophenszenarien wie etwa nach einem Erdbeben nachstellen. Die gelbe Zone bildet eine leicht beschädigte Büroumgebung nach, in der lediglich Papier und einige umgefallene Dinge herumliegen. In der orangen Zone müssen bereits Rampen und Treppen bewältigt werden. Die rote Zone zeichnet sich durch instabile Trümmerberge aus und umfasst schlecht zugängliche Hohlräume unterschiedlicher Größe. Teilweise werden standardisierte Testelemente in den Arenen verwendet wie die Random Step Fields, die das amerikanische National Institute of Standards and Technologies (NIST) anhand echter Katastrophendaten und Anregungen von Rettungskräften entwickelt hat.

Die Roboter müssen von diesen vorher unbekannten Arenen Karten erstellen. Ohne diese Karten wären die Roboter weder in der Lage, das Gebiet systematisch zu erkunden, noch könnten sie dem Einsatzleiter eine präzise Position der gefundenen Opfer melden. Die selbstständige Erstellung zweidimensionaler Karten ist bei fast allen Teams Stand der Technik. Karten, wie sie der Roboter Kurt3D des Fraunhofer Instituts für Autonome Intelligente Systeme mittels 3D-Laserscanner aufnimmt, beeindrucken durch ihre hohe Genauigkeit und Qualität. Prinzipiell können Rettungsroboter inzwischen auf einer Karte vorgegebene Positionen anfahren oder körperwarme Bereiche, die auf lebende Opfer hinweisen, durch die automatische Auswertung der Daten von Wärmebildkameras auffinden.

Damit Roboter bei einer echten Katastrophe auch eine echte Entlastung sind, müssen sie aber noch erheblich mehr können. Am Unglücksort muss ein Roboter nicht nur mit dem Einsatzleiter kommunizieren, um beispielsweise die Lage von Verschütteten zu übermitteln oder neue Befehle entgegenzunehmen. Gleichzeitig muss er auch in der Lage sein, die Ausführbarkeit von Anweisungen zu überprüfen, und beim Ausfall der Verbindung auch allein, ohne die heute oft noch vorhandene Fernsteuerung handeln können. Wenn in Zukunft viele Roboter verfügbar sind, sollten sie nicht mehr Personal für ihre Bedienung binden als unbedingt notwendig. Das erklärte Ziel ist daher, einem einzelnen Menschen, zum Beispiel einem Einsatzleiter, einen kompletten Überblick über die Situation in einem Katastrophenszenario zu geben und gleichzeitig die Möglichkeit zur intuitiven Steuerung mehrerer Roboter zu verschaffen.

Um die Entwicklung der Autonomie der Rettungsroboter stärker zu fördern, wird seit dem vergangenen Jahr eine zusätzliche Spezialwertung ausgetragen, bei der sich das Team „RescueRobots Freiburg“ am besten schlug: Bei diesem Wettkampf reduziert man die Komplexität der Umgebung, die ein Roboter kartieren und überwinden muss, und vereinfacht die Erkennung von Katastrophenopfern. Dafür ist es den menschlichen Teammitgliedern aber untersagt einzugreifen.

Auch die RoboCup-Simulationsligen nähern sich dem langfristigen Ziel nur Schritt für Schritt an. Anders als in den Ligen mit echten Robotern musste man dort zum Einstieg aber nicht die Spielregeln an die zunächst begrenzten Möglichkeiten der Technik anpassen, sondern konnte stattdessen bei der Simulation mit starken Vereinfachungen der Roboterhardware arbeiten. Dadurch war es möglich, dass in der Soccer Simulation Liga seit Beginn der RoboCup-Wettbewerbe elf vollständig autonome Agenten pro Mannschaft auf einem virtuellen Spielfeld in der Größe eines originalen Fußballfeldes spielen. In einer speziellen Simulationsumgebung läuft für jeden Spieler ein eigenes Kontrollprogramm, das den Zustand der Welt jeweils zu bestimmten Zeitpunkten „sieht“.

Die virtuellen Spieler haben wie in der Four-Legged-Liga ein eingeschränktes Gesichtsfeld und müssen gezielt den Kopf oder Körper drehen, um alles zu erfassen. Der Soccerserver übermittelt ihnen Daten wie „Du siehst den Ball 3 m vor dir im Winkel von 42 Grad“, die normalerweise erst durch aufwendige Prozesse der Sensorverarbeitung gewonnen werden müssen. Dabei nimmt die Genauigkeit der Angaben mit der Entfernung ab, sodass etwa weiter entfernte Spieler nicht genau identifizierbar sind. Durch die Verfolgung des Balllaufs über mehrere „Bilder“ kann beispielsweise ein Pass erkannt oder die Passgenauigkeit bestimmt werden. Auch der Schiedsrichter wird durch ein Programm realisiert. Und jedes Team hat seinen Trainer - ebenfalls ein eigenes Programm. Der Trainer, der das gesamte Spielfeld überblickt, kann strategische Anweisungen geben und Spieler auswechseln.

Die ursprüngliche 2D-Simulation wird in der nächsten Zukunft in der 2004 eingeführten 3D-Liga aufgehen, in der mit Hilfe des Physik- und Mechanik-Simulators ODE (Open Dynamics Engine) eine realistischere physikalische Weltmodellierung erfolgen soll. Durch den Übergang von der Simulation abstrakter Agenten zur Modellierung humanoider Roboter wird die dreidimensionale Fußballsimulation stark an Realismus gewinnen. Bei der Entwicklung einer Mannschaft muss sich der Programmierer in Zukunft auch Gedanken um Dinge wie das effiziente Laufen und die Balance beim Schuss machen. Derartige Simulationen werden weit über das hinausgehen, was heutige Computerspiele leisten.

Trotz des Trends zu realitätsnaher Modellierung wird die Simulationsliga auch in Zukunft so weit von der realen Welt abstrahieren, dass der Fokus weiterhin bei der Frage nach Algorithmen und Verfahren zur optimalen Steuerung autonomer Agenten in einem kooperativen Team liegen wird. Bisherige Meilensteine in der Entwicklung der Simulationsligateams sind die Benutzung von genetischen Algorithmen zur Entwicklung von Teamstrategien, das Konzept des ‚Layered Learning’ (CMUnited 1999), das Konzept des dynamischen Rollenwechsels (FC Portugal 2000) sowie der Einsatz neuronaler Reinforcement Lernverfahren für Individual- und Teamverhalten (Brainstormers Osnabrück, seit 1999). Die in dieser Liga entwickelten Konzepte können überall dort eingesetzt werden, wo autonome Einheiten individuell entscheiden, um gemeinsam ein Ziel zu erreichen, wie bei der Bearbeitung von Aufträgen an autonomen Maschinen in einer verteilten Produktion. Die Abstimmung von Handlung und Sensordatenerfassung tritt in vielen alltäglichen Regelungsvorgängen auf, wie der Geschwindigkeitsregelung von Fahrzeugen oder der Überwachung und Steuerung chemischer Prozesse.

In der RoboCup-Simulation selbst ist es durch die hohe Abstraktion von den technischen Problemen echter Roboter inzwischen möglich, komplexe Spielszenarien wie die Abseitsregel zu realisieren. Sowohl die Fertigkeiten einzelner Spieler, wie Dribbeln oder Passen, als auch das Zusammenspiel im Team haben sich seit Beginn des RoboCup stark verbessert. Durch verteiltes Lernen im Team sollen Spielzüge mit mehreren Spielern wie Doppelpass oder Flanken automatisch erlernt werden. Jeder Agent muss erkennen, ob eine Aktion Vorteile für das Team hat, auch wenn sie für ihn persönlich schlecht ist.

Für das Handeln in einer dynamischen Umgebung ist es generell wichtig, dass Agenten sich auf unbekannte und unerwartete Situationen einstellen können. Diese Adaptivität führt zu höherer Robustheit und hilft somit, Fehler zu vermeiden. Dafür reicht das klassische Offline-Lernen, bei dem eine Fähigkeit in einer Trainingssituation erworben und später im Spiel unverändert angewandt wird, nicht aus. Deshalb nutzt man das flexiblere Online-Lernen, bei dem die Agenten neue Kenntnisse während eines Spiels erwerben. Besonders nützlich ist dies bei der Modellierung der gegnerischen Mannschaft, deren Handlungsweisen und inneren Vorgänge einem Agenten normalerweise verborgen sind: Kann eine Mannschaft beispielsweise erkennen, dass ihr Gegner in bestimmten Situationen immer die gleichen Löcher in der Abwehr hat, so lässt sich dieses Wissen gewinnbringend in der Angriffstaktik verwenden. Aus den Beobachtungen erzeugte Statistiken helfen dem Trainerprogramm, die Eigenschaften der Gegenspieler wie Schussstärke, Aufstellung oder Spielweise zu identifizieren. Seine Erkenntnisse teilt es dann den Spielerprogrammen seiner Mannschaft mit.

Die Fähigkeit, sich auf einen zunächst unbekannten Gegner einzustellen, benötigen auch die virtuellen Agenten in der Rescue Simulation Liga. Im Unterschied zu anderen Ligen, bei denen Teams gegeneinander spielen, ist der Gegner in dieser Liga allerdings ein simuliertes Unglück in Form von Straßenblockaden, eingestürzten Häusern und sich rigoros ausbreitenden Feuern, gegen das die Teams gemeinsam ankämpfen. Um den Verlauf einer echten Katastrophe wie ein Erdbeben, Hurrikan oder Flutwelle im Rechner zu simulieren und darzustellen, verwendet man ein aus einer Karte generiertes Modell einer real existierenden Stadt wie jenes der japanischen Stadt Kobe, die 1995 von einem Erdbeben stark verwüstet wurde.

Wie bei einem Online-Echtzeitstrategiespiel verbinden sich die Agenten über ein Netzwerk mit dem Simulationssystem und übernehmen die Aufgaben der Polizei, Feuerwehr oder Ambulanz. Im Prinzip gewinnt das Team, das in der Simulation die meisten Menschen rettet und die wenigsten Häuser abbrennen lässt. Auch wenn die Simulation auf den ersten Blick einem Echtzeitstrategiespiel ähnelt, besteht sie aus wesentlich komplexeren Simulatoren, die den Agenten sorgfältig überlegte und koordinierte Handlungen abverlangen. Gerade bei Katastrophen lassen sich bestimmte Aufgaben nur im Zusammenspiel aller simulierten Retter lösen. Größere Brände kann die Feuerwehr nur durch ein abgestimmtes Vorgehen löschen. Dies kann aber nur geschehen, wenn die Polizei zuvor alle Zufahrtswege geräumt hat. Durch solche gegebenen Abhängigkeiten erweisen sich nur manche Lösungen als wirklich brauchbar.

Wie bei Menschen auch erschwert ein eingeschränktes Sichtfeld die Wahrnehmung der Katastrophe. Die Agenten sehen und hören nur Dinge, die sich innerhalb weniger Meter von ihrer Position entfernt befinden. Erst eine Exploration der Umgebung ermöglicht den gegenseitigen Austausch von Informationen über den Aufenthaltsort von Katastrophenopfern oder die Befahrbarkeit von Straßen, wobei alle Daten für eine konsistente Integration auch zentral zusammenlaufen müssen.

Um die Entwicklung von Simulatoren voranzutreiben, wird zusätzlich jedes Jahr eine Auszeichnung für die Entwicklung der besten Simulatorsoftware vergeben. In den letzten zwei Jahren ging dieser Preis an ein Team aus Freiburg für die Entwicklung eines Feuersimulators, 3D-Betrachters und Zivilistensimulators. Gerade die Entwicklung von Komponenten für die Simulationssysteme ist von besonderem Interesse für die Öffentlichkeit: Die Feuerwehr in Los Angeles hat Teile der bestehenden RoboCup-Software zur Simulation von Feuer und zur 3D-Visualisierung bereits in der derzeitigen Version für das Training von Einsatzleitern verwendet. Um das System noch stärker für den professionellen Einsatz interessant zu machen, arbeitet man momentan auch in anderen Forschungsgruppen an der Integration von Daten aus der Realität wie zum Beispiel der Aufzeichnung und Darstellung von GPS-Positionen des Rettungspersonals in Echtzeit. Man erhofft sich damit auch langfristig die Realitätsnähe der Simulatoren erhöhen zu können, sodass sie noch breiter einsetzbar werden. (anm)

Die Autoren bedanken sich herzlich für Beiträge aus den Ligen von Sven Behnke, Andreas Birk, Matthias Jüngel, Alexander Kleiner, Tim Laue, Jan Murray, Thomas Röfer, Frank Schreiber, Thomas Wisspeintner und Oskar von Stryk.

Anzeige