Sind wir Cyborg?

Wearable Computing: Von der Science-Fiction-Kuriosität zur Alltagstechnik

Trends & News | Trend

Wearable-Computing-Technik ist nicht automatisch deshalb spannend, weil man sie am Körper trägt – sondern weil es die erste Gerätegattung ist, die nicht mehr die volle Aufmerksamkeit der Benutzer fordert. Datenbrillen und Körperlogger bieten aber auch großes Konfliktpotenzial und führen womöglich sogar zu neuen Gesetzen.

Computer fordern seit ihrer Erfindung grundsätzlich die volle Aufmerksamkeit ihrer Benutzer – auch mit aktuellen Darreichungsformen wie Tablets oder Smartphones hat sich daran nicht viel geändert. Geräte der Wearable-Gattung dagegen drängen sich nicht auf, sondern verrichten ihre Dienste dezent im Hintergrund. Konkreter: Man muss nicht unterbrechen, was man gerade macht, um sich von Computertechnik assistieren zu lassen. Ein perfektes Beispiel für Wearable Computing ist ein modernes Hörgerät: Dass darin ausgeklügelte Klangaufbereitungsalgorithmen werkeln, merkt der Träger gar nicht – muss er auch gar nicht, Hauptsache, er hört besser.

Es geht los

Hörgeräte waren lange Zeit die einzigen wirklich im Alltag relevanten Wearables. Doch das ändert sich gerade rasant. Zu den neuartigen Geräten gehören zum Beispiel Smartwatches: Die vernetzten Armbanduhren schmiegen sich zwar noch nicht so dezent ins menschliche Bewusstsein wie Hörgeräte, arbeiten aber schon wesentlich unaufdringlicher als Smartphones. Ein Beispiel: Sitzt man in einer Besprechung und bekommt eine Mail, vibriert das Smartphone zwar, aber man müsste es peinlich aus der Tasche nesteln, um zu sehen, ob das nur Tante Inge ist oder der ersehnte Großauftrag. Auf der Smartwatch kann man zumindest Absender und Betreffzeile diskret ablesen, ohne irgendeine Taste zu drücken. Technisch holpert es bei den Smartwatches zwar noch tüchtig (siehe Test auf S. 78), doch der riesige Hype um die Pebble-Uhr – und die angeblich 100 Ingenieure, die an einer Apple-Uhr basteln sollen – zeigt zumindest das Potenzial der schlauen Uhren.

Kein potenzielles, sondern echtes Geld wird bereits mit einer anderen Wearable-Gerätegattung verdient: Aktivitätstracker. Körperfunktionen überwachen klingt zunächst nach Krankenhaus und Orthopädie-Fachgeschäft – Fitness-Fans, Nerds und Abnehmwillige aber haben aus den aufgebohrten Schrittzählern eine explosionsartig wachsende Industrie gemacht. Der Clou ist hier die Synchronisierung mit der Cloud: Viele Geräte zeigen auf Smartphone und PC hübsch aufbereitete Aktivitätsstatistiken oder Kollegen-Bestenlisten an, ohne dass man mit Kabeln herumhantieren muss – die Daten werden ohne Eingriff des Benutzers übertragen, man muss den Aktivitätstracker nicht einmal aus der Tasche holen (siehe Test auf S. 86).

Die aktuelle Wearable-Welle ist untrennbar mit dem Aufstieg des Smartphones verbunden: Einmal wegen der dadurch ständig verfügbaren Internetverbindung, und auch wegen stromsparender Funktechniken wie Bluetooth 4.0. Nicht vergessen darf man obendrein, dass noch vor wenigen Jahren Beschleunigungssensoren, Miniaturkameras, Gyroskope und Magnetometer nicht nur immens teuer, sondern auch wenig ausgereift waren. Inzwischen stecken die Teile in jedem Smartphone und sind für Centbeträge erhältlich.

Hardware-Hacking

Darüber freuen sich auch Wearable-Hardwarehacker wie Neil Harbisson: Der vollständig farbenblinde Künstler hat einen „Eyeborg“ entwickelt, der in Echtzeit die von einer Kopfkamera erfassten Farbwerte in Töne umwandelt. Registriert die Kamera beispielsweise Violett, hört Harbisson einen Ton mit 607,542 Hertz. Sein Eyeborg beherrscht nicht nur das von gewöhnlichen Menschen sichtbare Spektrum, sondern auch Ultraviolett und Infrarot. Er nutzt das Gerät bereits seit fast zehn Jahren, sein Gehirn hat sich vollständig an die Farb-Ton-Informationen gewöhnt. Neil Harbisson sieht sich als Cyborg – und hat mit seiner Partnerin Moon Ribas 2010 die Cyborg Foundation gegründet, die sich für den Einsatz von Technik am und im menschlichen Körper einsetzt.

Glass-Cyborgs

An Maschinen, die die Realität mit Zusatzinformationen anreichern, wird bereits seit Jahrzehnten geforscht. Googles Prestige-Projekt Glass könnte die Gerätegattung erstmals massentauglich machen. Die Brille zeigt im Augenwinkel nicht nur neue Mails oder anstehende Termine an, sondern auch Informationen darüber, was man in der echten Welt gerade sieht: „Das hier ist das Wiener Konservatorium, hier hat Elfriede Jelinek Orgel, Klavier und Blockflöte studiert. Das interessiert dich vermutlich, weil du gerade ein Buch von ihr liest.“ Google ist natürlich prädestiniert dafür, solche Datenverknüpfungen herzustellen – schließlich hat es im besten (schlimmsten?) Fall Zugriff auf das gesamte digitale Leben.

Die Google-Now-Technik, die sozusagen versucht, die Gedanken des Benutzers zu lesen, steckt bereits in Android-Version 4.1 und in der iOS-Google-App. Die Software verknüpft die riesigen Informationsmengen, die in einem rege genutzten Google-Account stecken – solange man die ganze Zeit angemeldet ist. Sucht man beispielsweise am Desktop-PC nach einem Kinofilm, meldet sich Google Now auf dem Smartphone, sobald man sich in der Nähe eines Kinos befindet, das den Film zeitnah zeigt. Ähnliche Funktionen gibt es für Flüge und Sportereignisse. Außerdem weiß Google Now bei eingeschalteter Standort-Übermittlung schon nach wenigen Tagen, wo man arbeitet – und erinnert dann automatisch daran, jetzt loszufahren, weil gerade Stau ist. Ist man in einer fremden Stadt unterwegs, zeigt Google Now die nächstgelegenen Sehenswürdigkeiten.

Würde das Smartphone nun aber permanent bimmeln, sobald Google Now meint, etwas Sinnvolles beitragen zu können, wäre das extrem nervig – nicht nur, weil die Technik sich regelmäßig vertut und Nutzloses kundtut, sondern auch, weil man nicht ständig gestört werden will.

Ganz anders sieht es aus, wenn die Informationen dezent ins periphere Sichtfeld eingeblendet werden. Genau das macht die Glass-Brille. Auch die Goggles-Technik, die Produkte, Texte und Sehenswürdigkeiten über die Kamera erkennt, ist auf Smartphones nur wenig mehr als eine Spielerei. Wenn man nun aber einfach irgendwo hinschaut und die Brille dann anzeigt, was es ist? Schon besser.

Betaversion für 1500 $

Die Google-Brille ist noch nicht im freien Handel erhältlich. Bestellen durften das Hype-Gerät bislang ausschließlich Teilnehmer der Google-I/O-Konferenz sowie die Gewinner eines Wettbewerbs. Ganz recht: Man musste sich bewerben, um für 1500 US-Dollar eine Brille kaufen zu dürfen. Dabei handelt es sich um die „Explorer Edition“ – praktisch die Beta-Version: Auf Basis der Nutzerrückmeldungen will Google die finale Version entwickeln, die in ungefähr einem Jahr kommen soll.

Die „Explorer Edition“ läuft noch auf der etwas ältlichen Android-Version 4.0.4. Steuern kann man Glass mit Wischbewegungen am Brillenbügel. Sie hört aber auch auf Sprachbefehle, die grundsätzlich mit „OK, Glass …“ beginnen müssen. So lassen sich zum Beispiel beim Fahrradfahren Fotos oder Videos machen, ohne dass man die Hand vom Lenker nehmen muss.

Obwohl Google softwaremäßig ziemlich weit vorn ist: Bei der Hardware hat der Konzern elementare Fehler gemacht. So sieht es jedenfalls Steve Mann, Informatikprofessor der University of Toronto. Mann gilt als Erfinder der High-Dynamic-Range-Kameratechnik (HDR), forscht aber hauptsächlich an Datenbrillen. In einem Artikel für die Ingenieursvereinigung IEEE erklärt Mann beispielsweise, dass die Kamera zu weit vom Auge entfernt sei – eine Überlagerung mit Live-Bildern sei wegen der falschen Perspektive problematisch. Außerdem kritisiert er, dass das Bild über eine Optik in einer festen Entfernung eingeblendet wird. Dadurch würde der Träger gezwungen, immer auf diese Entfernung zu fokussieren, während er mit dem anderen Auge mal in die Nähe und mal in die Ferne schaut.

Little Brother

Man muss kein Prophet sein, um das Konfliktpotenzial zu erkennen, sollten sich Datenbrillen mit Kamera tatsächlich durchsetzen. Etliche Menschen lehnen es instinktiv ab, gefilmt zu werden. Das Caesars-Palace-Casino in Las Vegas sowie das 5-Point-Café in Seattle verbieten Glass-Trägern bereits den Zutritt. Steve Mann kennt die Ablehnung nur zu gut – er trägt seit 30 Jahren im Alltag seine selbst entwickelten Datenbrillen. Als er vor einigen Jahren in einem McDonald’s-Restaurant in Paris essen wollte, wurde er wegen seiner Kopfkamera mit Gewalt hinausbefördert. Das führte zu einem Prozess – und Steve Mann fing an, sich nicht nur aus technischer Perspektive mit Datenbrillen auseinanderzusetzen. Wie sollten Staat und Gesellschaft auf die neue Technik reagieren?

Ein profanes Verbot kommt für Mann nicht in Frage, für ihn birgt die Technik vor allem positives Potenzial – so ließe sich mit den Datenbrillen ein Überwachungs-Gleichgewicht schaffen. Schließlich sind wir im Alltag bereits jetzt von unzähligen Kameras umgeben, installiert von Staat (an öffentlichen Plätzen) und Konzernen (in Geschäften) – das ist laut Mann die „ÜBERwachung“ („Sur-Veillance“). Die Beweishoheit liegt bei den Besitzern der Kameras. Nutzen die Bürger nun ihre eigenen Kameras, können sie „zurücküberwachen“ („UNTERwachung“ beziehungsweise „Sous-Veillance“). Demonstranten und Polizei filmen sich bereits seit Jahren gegenseitig, und auch in Russland sind Kameras im Auto üblich, um sich mit Videoaufzeichnungen gegen korrupte Polizisten zu wehren.

Sicher ist: Die Frage, ob Datenbrillen nun zu weniger oder mehr Freiheit führen, wird in Zukunft noch heiß debattiert werden – ganz ähnlich wie man jetzt schon über Aktivitätstracker diskutiert. Fans der Technik feiern ihre Emanzipation von der Schulmedizin und die vielen neuen Erkenntnisse, Kritiker ätzen über den Perfektionswahn der Quantified-Self-Freaks und warnen vor Krankenkassen, die irgendwann die Nutzung von Körper-Überwachungstechnik vorschreiben könnten. Je näher die Technik dem Körper kommt, desto größer scheint das Angstpotenzial zu werden. Doch mindestens genauso stark wie die Angst ist das Bedürfnis der Menschen, über sich hinauszuwachsen. Wearable Computing wird nicht aufzuhalten sein – die Frage ist, ob und wie wir die Technik regulieren müssen. (jkj)

Computer zum Anziehen selbst häkeln

Vor einigen Jahren hatte „intelligente Kleidung“ ein kleines Popularitätshoch. Die Medien berichteten seinerzeit viel über die elektronischen Klamotten – im Alltag ist diese klassische Wearable-Computing-Gattung aber nie so richtig angekommen. Wer das ändern will, kann selbst losbasteln – wie wäre es beispielsweise mit einem Baby-Strampelanzug, der permanent die Körpertemperatur aufs elterliche Smartphone funkt? Realisieren lässt sich so etwas mit einem LilyPad. Das ist ein sehr einfach programmierbarer Mikrocontroller aus der Arduino-Familie, der auf den Einsatz in Kleidung ausgerichtet ist. Das LilyPad ist extrem flach und lässt sich unauffällig einnähen. In der 19 Euro teuren USB-Version (Foto) steckt zum Beispiel ein ATmega32u4 mit 8 MHz und 32 KByte Flashspeicher. Neben einem USB-Port stehen 9 digitale I/O-Pins, 4 PWM- und 4 analoge Eingänge zur Verfügung.

Artikel kostenlos herunterladen

Kommentare

Anzeige