Menü

RoboCup German Open: Fallrückzieher und rollende Köpfe

Am letzten Turniertag zeigten die Roboter-Fußball-Teams noch einmal ihr ganzes Können. Sogar ein (unbeabsichtigter) Fallrückzieher war zu bestaunen. Roboter mit langsamer Bildverarbeitung wurden durch die schnellere Konkurrenz abgehängt.

von
vorlesen Drucken Kommentare lesen 27 Beiträge
RoboCup German Open: Fallrückzieher und rollende Köpfe

Ball oder Elfmeterpunkt? Manchmal verwechselten Roboter den Punkt mit dem Ball.

(Bild: Hans-Arthur Marsiske)

In einer Hinsicht ist auf den RoboCup Verlass: Das letzte Spiel eines Turniers ist praktisch immer sehenswert und bietet einen krönenden Abschluss. Das bestätigte sich jetzt wieder bei den RoboCup German Open in Magdeburg und entschädigte für manchen Durchhänger zwischendurch.

Die finale Begegnung fochten wieder einmal die Teams B-Human und HTWK Leipzig in der Standard Platform League aus – "El Classico", wie der Kommentator treffend anmerkte. Denn diese beiden Teams zählen seit Jahren zu den besten, B-Human ist amtierender Weltmeister – und jetzt auch deutscher Meister. Anfangs wirkte Leipzig zwar noch überlegen, drängte vors Bremer Tor und schien den Führungstreffer schon auf der Fußspitze zu haben. Doch dann hatte ein B-Human-Spieler nahe der Mittellinie auf einmal freie Schussbahn aufs Leipziger Tor und nutzte das erbarmungslos aus. Zwar konnte der Torwart den kraftvollen Fernschuss abwehren, doch bevor er wieder auf den Füßen stand, hatte ein anderer Bremer Spieler nachgesetzt und den Ball über die Linie geschoben.

B-Human bei einer Aktion kurz vor Apfiff.

(Bild: Hans-Arthur Marsiske)

Drei von insgesamt vier Toren erzielte B-Human auf diese Weise: Fernschuss, abgewehrt, Nachschuss, drin. Leipzig traf einmal, zwar durch ein Eigentor der Bremer, das aber durch den vorangegangenen Angriff eines HTWK-Spieler erzwungen war – und aus einem Fallrückzieher resultierte: Der Bremer Spieler fiel rückwärts hin und schleuderte dabei den Ball über sich selbst ins Tor. Später rollte dann nach dem Sturz eines Leipziger Spielers neben dem Ball auch dessen Kopf übers Feld. Nein, über dieses Finale konnte sich wirklich niemand beklagen.

Das Endspiel in der Humanoid League war dagegen deutlich verhaltener. Hier haben die Roboter nicht nur Probleme mit dem Laufen, sondern auch mit der Bildverarbeitung. Das zeigte sich einige Male besonders klar, wenn der Spieler vom 1. RFC Berlin ins Leere trat, obwohl ein Gegenspieler vom Rhoban Football Club (Bordeaux) den Ball schon ein oder zwei Sekunden vorher weggekickt hatte. Wer so viel Zeit von der Sensordatenaufnahme bis zur Aktion braucht, kommt im Roboterfußball einfach nicht weit. Die französischen Roboter waren zwar auch nicht gerade Laufwunder, aber bewegten sich doch erkennbar schneller und sicherer, sodass sie verdient mit 3:0 gewannen.

RoboCup German Open: Fallrückzieher und rollende Köpfe (9 Bilder)

Hm, da liegt der Ball. Aber was ist das Ding schräg rechts dahinter? Das sieht doch eigentlich auch aus wie ein Ball. Oh, ist das schwierig! Was mach ich bloß? Ich brauche wohl noch ein paar Deep-Learning-Sitzungen. (Bild: Hans-Arthur Marsiske)

Die Schwierigkeiten mit der Bildverarbeitung zeigten sich in dieser Liga auch daran, dass die Roboter wiederholt den Ball mit dem Elfmeterpunkt verwechselten. Um dem abzuhelfen, greifen die Teams verstärkt auf Ansätze des Deep Learning zurück. Allerdings ist die verfügbare Software (wie etwa Googles TensorFlow) zumeist zu rechenaufwendig, um sie unmodifiziert auf den Computern der Roboter laufen zu lassen. Gesucht wird daher nach geeigneten Strategien, um die Kamerabilder mit möglichst wenig Rechenaufwand in möglichst kurzer Zeit so effizient wie möglich auszuwerten. Die eine optimale Lösung gibt es nicht. Es dürfte daher spannend werden, welche Verfahren die Teams bis zur Weltmeisterschaft im Juli entwickeln werden.

Von neuronalen Netzen und Deep Learning war auch in der RoboCup@home League wiederholt die Rede. So präsentierten die RT Lions (Hochschule Reutlingen) einen Roboter mit bemerkenswerten mimischen und sprachlichen Fähigkeiten, die mithilfe von Convolutional Neural Networks (CNN) trainiert wurden. Der Roboter soll in der Lage sein, Sachfragen durch Rückgriff aufs Internet zu beantworten. In der @home-Arena gelang das jedoch nicht, weil die Internetanbindung nicht stabil genug war.

Der Roboter von Tech United (TU Eindhoven) verstand, Gesten mit dem Zeigefinger richtig zu deuten.

(Bild: Hans-Arthur Marsiske)

Das Team Tech United (TU Eindhoven) stützte sich ebenfalls auf neuronale Netze, um seinem Roboter die Erkennung menschlicher Gesten beizubringen. Das klappte im Finale der Liga recht gut: Der Mensch musste nur mit dem ausgestreckten Arm dorthin zeigen, wo der Roboter einen Gegenstand greifen oder ihn wieder abstellen sollte. Das reichte für den zweiten Platz im Wettbewerb. Nur das Team Homer (Universität Koblenz) war noch besser. Hier konnten die Zuschauer live miterleben, wie der Roboter lernte: Zuerst bekam er ein Kommando, das er nicht verstand ("Paprika from the cupboard would be nice. Please bring it to me."). Nachdem der Mensch erklärt hatte, was es bedeutet ("Please bring me Paprika from the cupboard"), konnte der Roboter die Satzstruktur auch auf andere Aufgaben übertragen ("Crackers from the table would be nice. Please bring it to me."). Hinzu kam, dass der Tisch zuvor von einem Jurymitglied an eine beliebige Stelle im Raum gestellt worden war. So brachte der Roboter mit den Crackers auch den Sieg in dieser Liga.

Wenn auf den Spielfeldern nicht immer Fortschritte zu erkennen sind, heißt das demnach nicht, dass sie nicht stattfinden. Sie erfolgen derzeit vor allem im Inneren der Roboter, werden sich früher oder später aber gewiss auch sichtbar auswirken – vielleicht schon bei der kommenden Weltmeisterschaft, ansonsten bei den nächsten German Open, die nächstes Jahr wieder in Magdeburg ausgetragen werden. (Hans-Arthur Marsiske) / (kbe)

Anzeige
Zur Startseite
Anzeige