Virtueller Blindenstock

Ein tragbarer 3D-Sensor soll Sehbehinderten helfen, ihre Umgebung besser zu erfassen.

Lesezeit: 1 Min.
In Pocket speichern
vorlesen Druckansicht Kommentare lesen
Von
  • Richard Moss

Ein tragbarer 3D-Sensor soll Sehbehinderten helfen, ihre Umgebung besser zu erfassen.

Eelke Folmer und Vinitha Khambadkar, Forscher an der University of Nevada, hoffen, dass sehbehinderte Menschen in naher Zukunft ohne Blindenstock auskommen können. Stattdessen sollen sie eine Kamera am Körper tragen, die sie über eine Sprachausgabe durch den Alltag führt und auf Handgesten reagiert.

Das sogenannte Gestural Interface for Remote Spatial Perception, kurz GIST, nutzt in der aktuellen Prototypversion Microsofts Bewegungssensor Kinect, um Objekte im Sichtfeld des Blinden zu analysieren und zu identifizieren. "GIST erlaubt es dem Nutzer, Informationen direkt aus seiner Umgebung zu ziehen", sagt Folmer.

Das Wissenschaftlerteam aus Nevada nutzt dabei Ideen aus dem "Sixth Sense"-Projekt des MIT, einem Augmented-Reality-Forschungsvorhaben, bei dem ein tragbares Gerät Informationen auf die physische Welt projiziert und Nutzern dann die Interaktion durch Winken, Zeigen und weitere Handgesten erlaubt. GIST arbeitet aber etwas anders: Hier werden Daten als Reaktion auf Gestenbefehle gesammelt, um die eingeschränkte Raumwahrnehmung von Blinden zu erweitern.

Wenn ein GIST-Träger beispielsweise ein "V"-Zeichen mit Zeige- und Mittelfinger macht, identifiziert das Gerät die dominante Farbe im gewählten Bereich. Streckt der Nutzer seine geschlossene Faust aus, teilt GIST mit, ob sich eine andere Person in dieser Richtung befindet und wie weit sie weg ist.

Gesten sind aber nicht die einzige Möglichkeit, mit dem System zu interagieren – dank des Kinect-Sensors, der Objekte, Gesichter und Sprache erkennen kann. "Man sagt dem Sensor dann beispielsweise, dass das hier die persönliche Tasse ist. Dann setzt man sie auf den Tisch ab und kann später fragen, wo sich der Gegenstand gerade befindet. GIST teilt dann z.B. mit, dass man ihn genau vor Nase hat", so Folmer. Als Nächstes soll das System das Tracking von Objekten auch dann erlauben, wenn sie weiter entfernt stehen oder gar hinter dem Nutzer sind.

Die Forscher planen außerdem, GIST so anzupassen, dass das System dem Nutzer sagen kann, welche Person sich vor ihm befindet – anhand einer kleinen Datenbank, die sich per Sprachkommando anlegen lässt. Neben der Gesichtserkennung wäre hierfür auch eine Körperformerkennung möglich, sagt Folmer.

GIST soll demnächst auch den neuen Kinect-Sensor 2.0 verwenden können, der die technischen Fähigkeiten der ersten Version deutlich übertrifft und beispielsweise einzelne Finger statt ganzer Hände wahrnimmt. Die überarbeitete 3D-Kamera ist allerdings noch weniger portabel als die erste Version.

Folmer ist sich aber sicher, dass es bald Sensoren geben wird, die klein genug sind, in ein Smartphone zu passen – entsprechende Hardware wird bereits entwickelt. Auch die ständig kleiner und schneller werdende Rechentechnik dürfte Blinden helfen, da Geräte viel mehr Umgebungsdaten auswerten können. (bsc)