Menü

SignBot: Gebärdensprache mit Roboterhänden

Studierende haben bei einem Hackathon zwei selbstgebauten Roboterhänden Gebärdensprache beigebracht. Damit sollen Gebärden und gesprochene Sprache näher zusammen rücken.

Lesezeit: 1 Min.
In Pocket speichern
vorlesen Druckansicht Kommentare lesen 14 Beiträge
Von

Bei einem kanadischen Hackathon haben vier Studenten zwei animatronische Hände gebaut und angefangen, ihnen die amerikanische Gebärdensprache (ASL) beizubringen. Der entstandene Prototyp erinnert an ein Puppentheater, in dem die zwei Roboterhände an Fäden hängen und auf Kommando durch die Luft schwirren. Derzeit übersetzt der SignBot allerdings nur wenige Wörter wie "Hallo" oder ahmt vorgeführte Gebärden nach.

Die Hände aus dem 3D-Drucker hatten die vier Bastler bereits im Vorfeld des "McHacks" angefangen zu bauen. Im Rahmen der Veranstaltung an der McGill University in Montreal wurden sie zusammen gesetzt und die Software geschrieben. Die Spracherkennung erfolgt über Nuance API, während die Gebärden in einer eigenen Datenbank gespeichert sind. Zum Erkennen von Gebärden wird Leap Motion verwendet.

Zu jeder Hand gehören sieben Servomotoren, von denen mit den verwendeten Arduino Unos allerdings nur sechs angesprochen werden können. Dabei wird die Johnny-Five-Library genutzt, ein JavaScript-Framework für IoT und Robotik, das mittels Node.js einfach eingebunden werden kann.

Die SignBot-Software hat das Team auf Github zum Download und der weiteren Entwicklung zur Verfügung gestellt. SignBot könne später beim Erlernen von Gebärdensprache helfen oder als Übersetzer tätig sein.

Erst kürzlich hatte Giphy in Zusammenarbeit mit dem Gebärdensprachlehrer Robert DeMayo über 2000 ASL-Gebärden als Gifs unter "Sign with Robert" veröffentlicht. Mit SignDict entsteht außerdem gerade ein Open-Source-Wörterbuch der deutschen Gebärdensprache (DGS). (hch)