zurück zum Artikel

Haptik-Konferenz Eurohaptics: Digitale Daten fühlbar machen

Hans-Arthur Marsiske

(Bild: Hans-Arthur Marsiske)

Wer sich von Internetinhalten "berührt" fühlt, meint das meistens im übertragenen Sinn. Forscher wollen digitale Daten dem Tastsinn besser zugänglich machen.

Die Vielfalt der Forschung zum "Fühlen" digitaler Daten ließ sich bei der Haptik-Konferenz Eurohaptics an der Technischen Universität Hamburg erleben. So präsentierte Basil Duvernoy von der schwedischen Linköping University eine Installation, mit der sich das Streicheln einer Hand übertragen ließ. Duvernoy hatte dafür auf der Innenfläche seiner Hand Beschleunigungssensoren befestigt, die die Verformungen der Haut registrierten, wenn er neben ihnen mit einem Finger darüber strich. Diese Daten wurden in Echtzeit an ein vibrotaktiles Display gesendet, das diese Bewegung spürbar machte, wenn man eine Hand locker darauf legte.

Martin Monsbach (University of Copenhagen) schlug ein Verfahren vor, wie sich die Handhabung von schwebenden Schaltern in virtueller Realität verbessern ließe: Statt sich an physischen Druckknöpfen zu orientieren, die mit dem Finger betätigt werden, sollte die Kraftrückkopplung, die den Kontakt mit dem Knopf bestätigt, auf die gesamte Hand übertragen werden. Erste Experimente haben gezeigt, dass dieses Verfahren weniger fehleranfällig ist.

Das Gefühl, den virtuellen Knopf berührt zu haben, wird dabei durch Ultraschall erzeugt. Das Verfahren konnten Besucher an mehreren Ausstellungsständen erproben. So arbeitet etwa das Projekt E-Textures [1] daran, Geschichten mithilfe von Ultraschall fühlbar zu machen: Beim Zuhören sollte man unter anderem Regentropfen, Herzschläge und das Kribbeln von Ameisen auf der Haut spüren. Allerdings kommt es dabei darauf an, die Hand in der richtigen Höhe über dem Ultraschallarray zu halten. Das Konzept ist vielversprechend, braucht aber noch viel Entwicklungsarbeit, bevor es zum Beispiel in Kinos zum Einsatz kommen kann.

Eurohaptics: Digitale Daten fühlen (0 Bilder) [2]

[3]

Andere Anwendungen sind schon weiter, etwa taktile Displays in Autos oder Westen für sehbeeinträchtigte Menschen, die mithilfe von Vibratoren auf dem Rücken bei der Navigation helfen. Für Menschen mit eingeschränkter Seh- und Hörfähigkeit ist das System Morse I/O [4] gedacht, das David Kutner von der Durham University vorstellte. Es soll ihnen ermöglichen, mithilfe eines Smartphones über Morsezeichen zu kommunizieren, indem lediglich drei Tasten betätigt werden müssen: Punkt, Strich und Leertaste. Letztere dient der Unterscheidung zwischen einzelnen Buchstaben und bei zweifacher Betätigung der Unterscheidung einzelner Worte.

Zugleich dient die Forschung dem besseren Verständnis des menschlichen Tastsinns. Wie das geschieht, illustrierte Patrick Haggard vom University College London in einer inspirierenden Keynote. An der Sinneswahrnehmung seien in der Regel mehrere Rezeptoren beteiligt, die in der Haut, den Muskeln und anderem Gewebe auf thermische, mechanische und chemische Reize reagierten. Dadurch sei es zumeist schwer zu ermitteln, wie die einzelnen Rezeptoren zur Gesamtwahrnehmung beitragen. Doch es gebe Möglichkeiten, "reine" Reize zu erzeugen, um dadurch das Zusammenspiel der Rezeptoren besser zu verstehen.

Als Beispiel nannte er die im Szechuanpfeffer enthaltene Substanz Sanshool, die auf den Lippen ein Gefühl von Vibration mit ungefähr 50 Hertz [5] erzeugt. Der taktile Rezeptor werde durch den chemischen Reiz gewissermaßen "entführt", wie Haggard sagte, und könne dadurch besser studiert werden. So verschwinde das durch Sanshool bewirkte Kribbeln, sobald ständiger Druck auf die Lippe ausgeübt werde. Durch Auftragen unterschiedlicher Konzentrationen des Stoffes auf Ober- und Unterlippe und den mechanischen Ausgleich der dadurch empfundenen Vibrationen lasse sich der Effekt quantifizieren. Durch Untersuchungen dieser Art habe sich die Interaktion verschiedener Signalpfade identifizieren lassen, die bis dahin übersehen worden war.

Der Tastsinn steht am Beginn des menschlichen Lebens. Bereits im Mutterleib beginnt der Mensch, strampelnd und tastend seine physische Umwelt zu erkunden. In der virtuellen Realität dagegen erscheint die Haptik hinter dem Sehen und Hören eher als Nachzügler. Bis digitale Daten mit vergleichbarer Sicherheit und Zuverlässigkeit "begriffen" werden können wie materielle Objekte, wird wohl noch einige Zeit vergehen. Aber die ersten Schritte sind getan und versprechen viel.

Lesen Sie auch

(olb [7])


URL dieses Artikels:
https://www.heise.de/-7121838

Links in diesem Artikel:
[1] https://www.etextures.co
[2] https://www.heise.de/bilderstrecke/bilderstrecke_7121856.html?back=7121838;back=7121838
[3] https://www.heise.de/bilderstrecke/bilderstrecke_7121856.html?back=7121838;back=7121838
[4] https://arxiv.org/pdf/2205.04802.pdf
[5] https://50hertzfoods.com
[6] https://www.heise.de/news/HuggieBot-2-0-Wissenschaftler-entwickeln-feinfuehligen-Roboter-6326000.html
[7] mailto:olb@heise.de