Wie Roboter ihre Fingerfertigkeit verbessern können

Roboterhände sollten genauso gut funktionieren, wie die von Menschen. Eine Reihe von Forschungsansätzen zeigt, wie das umgesetzt werden kann.

Lesezeit: 2 Min.
In Pocket speichern
vorlesen Druckansicht Kommentare lesen 7 Beiträge

(Bild: Aditya Bhatt, Oliver Brock (TU Berlin) (Screenshot))

Von

Wer sich bei wissenschaftlichen Vortragsveranstaltungen im Publikum umsieht, entdeckt vielleicht hier und da jemanden, der seinen Schreibstift nicht nur für Notizen benutzt, sondern ihn auch mehr oder weniger um die Finger seiner Hand kreisen lässt. Bei der Robotik-Konferenz ICRA 2020, die derzeit ausschließlich online stattfindet, sind solche Beobachtungen in diesem Jahr zwar nicht möglich. Dafür ist zu erfahren, wie Wissenschaftler versuchen, Robotern eine vergleichbare Geschicklichkeit beizubringen.

In der Fachsprache läuft das unter dem englischen Begriff "In-Hand Manipulation", womit die Veränderung der Ausrichtung eines Objekts in einer Hand gemeint ist. Dabei muss es nicht gleich um so anspruchsvolle Aufgaben wie das Jonglieren eines Stifts gehen. Auch das Herausschieben der Mine bei einem Druck- oder Drehkugelschreiber, um mit ihm gleich darauf zu schreiben – was Menschen ohne großes Nachdenken mühelos vollbringen –, dürfte Roboterhände gegenwärtig noch überfordern. Die Vielfalt der Forschungsansätze dazu lässt zudem vermuten, dass der Weg zu einer Problemlösung noch weit ist.

Oliver Brock (TU Berlin) präsentierte im Rahmen des "Workshop on Learning of Manual Skills in Humans and Robots" Überlegungen zum Kontrollproblem. Die Kontrolle der Fingerbewegungen könne vereinfacht werden, indem Informationen der Umgebung und des Objekts selbst genutzt werden. Um etwa einen Ball auf einer Tischplatte zu greifen, sei es nicht erforderlich, die Entfernung genau zu kennen. Vielmehr könne der Roboter den Greifer herabsenken, bis die Finger die Tischplatte berühren, und dann den Greifer schließen, bis die Finger Kontakt mit dem Ball haben. So lasse sich der Griff ausführen, ohne dass die Positionen der Gelenke jederzeit genau kontrolliert werden müssten.

Bei der Manipulation von Objekten in einer Hand, stelle die Hand zugleich die Umgebung dar, etwa wenn der Daumen den Gegenstand schiebt, bis der Ringfinger die Bewegung stoppt. Brock zeigte zur Veranschaulichung ein Video seines Doktoranden Aditya Bhatt, in dem zu sehen ist, wie ein Würfel in einer Fünf-Finger-Hand zielgerichtet hin und her gedreht wird. Dabei seien keinerlei Sensoren im Spiel gewesen, erklärt Bhatt dazu. Es handle sich vielmehr um vorprogrammierte Elementarbewegungen, die zu Sequenzen zusammengefügt wurden.

Menschenähnliche Roboterhände erreichen eine erstaunliche Fingerfertigkeit.
(Quelle: Aditya Bhatt, Oliver Brock (TU Berlin))

"Es zeigt, wie weit wir mit dem denkbar einfachsten Ansatz kommen können", sagt Bhatt. "Die Bewegungen sind so zuverlässig, dass wir fast sicher sein können, wo sich der Würfel nach jeder Aktion befinden wird. Das ermöglicht es, die Bewegungen zu Sequenzen zu kombinieren." Die Forscher sind überzeugt, dass es eine Vielzahl solch einfacher Lösungen für das Problem der In-Hand Manipulation gibt. Sie wollen den Ansatz systematisieren und durch die Verbindung mit Lernverfahren noch verbessern. Idealerweise soll ein Roboter dann selbst solche Bewegungen und Bewegungsfolgen entdecken.

Die Studie, die Tingguang Li (Chinese University of Hongkong) vorstellt, zielt in eine ähnliche Richtung: Hier werden drei Elementarbewegungen (manipulation primitives) unterschieden: Reposing, Sliding, Flipping – also die Neupositionierung eines Fingers, das Gleiten eines Fingers und der Wechsel auf eine andere Seite des Objekts. Die Forscher unterscheiden leichte, mittelschwere und schwere Manipulationsaufgaben, je nachdem ob sie eine, zwei oder drei dieser Elementarbewegungen erfordern. In Simulationsexperimenten haben sie die Elementarbewegungen mit Verstärkungslernen kombiniert und streben, ähnlich wie die Berliner Wissenschaftler, die automatische Entdeckung neuer Bewegungsabläufe an. Eine hierarchische Lernarchitektur soll in der Lage sein, geeignete Elementarbewegungen in schwierigen Umgebungen zusammenzustellen.

Andere Studien beschäftigen sich mit der nötigen Sensorausstattung. Hui Li (Wichita State University) präsentierte Experimente, bei denen der Roboter den jeweils geeigneten Griff mithilfe von Informationen einer RGB-D-Kamera zur Erzeugung einer 3D-Punktwolke sowie eines SCiO-Spektrometers für Nah-Infrarot zur Bestimmung des Materials finden soll. Die jeweils geeigneten Griffe wurden gelernt, wobei die Forscher aus der Vielzahl möglicher Griffe zuvor sechs Grundformen abgeleitet hatten. Am Deutschen Zentrum für Luft- und Raumfahrt (DLR) dagegen stützen sich die Forscher, wie Martin Pfanne berichtet, auf die in den Gelenken wirkenden Drehmomente, um dem Roboter die Kontrolle der Ausrichtung von Objekten in seiner Hand zu ermöglichen.

Aber müssen Roboter immer mit menschenähnlichen Händen ausgestattet sein? Shenli Yuan (Stanford University) und sein Forschungsteam haben eine Hand entwickelt, die sich nicht am menschlichen Vorbild orientiert. Sie besteht aus drei Fingern mit einer Rolle an der Spitze, die senkrecht oder waagerecht ausgerichtet werden kann. Im Unterschied zu anthropomorphen Händen ermöglichten solche "steuerbaren, aktiven Oberflächen" eine Vielfalt von Fähigkeiten bei reduzierter Komplexität, sagt Yuan.

Roboterhände müssen nicht unbedingt wie menschliche Hände geformt sein: drei "Finger" reichen auch aus.

Mit Roller Grasper V2 haben die Wissenschaftler bereits die nächste Version des Greifers gebaut. Er ist mit kugelförmigen statt mit länglichen Rollen ausgestattet – und lässt erwarten, dass das Problem der In-Hand Manipulation zukünftig noch viele weitere überraschende Lösungsansätze hervorbringen wird.

(olb)