Realitätsnähe

Brillen für erweiterte und virtuelle Realität

Trends & News | Trend

Der moderne Reisende erfährt beim Stadtspaziergang ganz nebenbei Wissenswertes zu den touristischen Highlights entlang seines Weges. Der moderne Gamer schließt die Realität dagegen aus und taucht stattdessen in computergenerierte Welten ab. Beides ist möglich, beides klappt am besten mit Brillen: Der Tourist braucht eine transparente Brille für erweiterte Realität, der Gamer eine blickdichte Videobrille für die virtuelle Realität.

Den Knopf im Ohr braucht der Spion längst nicht mehr. Stattdessen liest er Anweisungen in Echtzeit und von der Außenwelt unbemerkt am Brillendisplay ab. So die Fiktion. In der Praxis sind Datenbrillen meist alles andere als unscheinbar, der Geheimagent wäre schnell enttarnt.

Dabei sind Brillen mit eingeschliffenen Displays schon lange in der Entwicklung und werden bereits genutzt. Allerdings in recht unhandlichen Ausführungen – etwa beim Militär, wo Piloten am Helmdisplay aktuelle Positionsdaten, Geschwindigkeit oder die Entfernung zum Ziel ablesen können. Im Januar hatte auch Motorola eine klobige, einäugige Datenbrille für militärische und industrielle Einsätze vorgestellt.

Für den Freizeitbereich gibt es inzwischen die monokulare MOD Live der Firma Recon Instruments. Sie lässt sich in Skihelme integrieren, hat Kamera und Headset und verbindet sich per Bluetooth mit dem Smartphone. Auf ihr kann sich der Snowboarder aktuelle Geschwindigkeits- und Höheninformationen oder die geplante Abfahrtsstrecke einblenden lassen, seine rasante Abfahrt aufzeichnen oder mit Freunden chatten.

Brillenträume

Deutlich filigraner als alles bisher Dagewesene wirkt die Datenbrille, die Google im Frühjahr vorgestellt hat. Mit „Project Glass“ scheinen solche Brillen für erweiterte Realität endlich auch für den Normalanwender in greifbare Nähe zu rücken. Prototypen seiner Datenbrille präsentierte das Unternehmen auf der diesjährigen Google I/O: ein schmaler Bügel, der wie ein Headset von der Seite ins Gesichtsfeld ragt – statt zum Mundwinkel weist der Brillenbügel zum Auge. Das Ganze sieht so futuristisch aus, dass es bereits als Accessoir – und als Videokamera – auf der Modenschau von Diane von Fürstenberg während der New York Fashion Week genutzt wurde. Reine Zukunftsmusik ist die Google-Brille indes nicht: Ab Januar 2013 sollen Entwickler für 1500 US-Dollar erste Muster erhalten. Laut Google-Chef Sergey Brin könnte bereits Ende 2013 die Serienproduktion anlaufen.

Rein technisch handelt es sich bei dem schicken Brillenbügel um eine kompakte Projektionseinheit, die Bilder über eine halbtransparente Prismenoptik von einem Minidisplay im Bügel zum Auge des Trägers lenkt. Zusätzlich ist im Bügel eine Kamera integriert, die auf Wunsch fortlaufend die Umgebung aufzeichnet. Der Nutzer kann durch das halbtransparente Prisma des Displays hindurch- oder an dem Bügel vorbeischauen und sieht dabei ganz normal seine Umgebung. Durch Fokussieren auf das projizierte Bild rückt dessen Inhalt ins Sichtfeld – allerdings nur für den Träger, Menschen in der Umgebung sehen von den projizierten Bildern nichts.

Der Haken: Solche zwar nicht unsichtbaren, aber für Außenstehende uneinsehbaren Displays verunsichern die Menschen in der Umgebung: Was sieht der Träger gerade? Zeichnet er mich auf und stellt das Video auf YouTube? Hört er mir überhaupt zu? Erfährt er etwas über mich, was ich nicht möchte?

Insofern dürfte Googles Project Glass einige Diskussionen aufwerfen: Das Bedürfnis nach Privatsphäre, etwaige Sicherheitsbedenken in Unternehmen und nicht zuletzt die Verhaltensunsicherheit, die die Brillenträger provozieren, mindern die soziale Akzeptanz für sogenannte Augmented-Reality-Brillen – der etwas sperrige englische Begriff für erweiterte Realität. Googles Projektingenieure hoffen jedoch, dass sich die Aufregung um die neue Art der Informationsanzeige von selbst legt, wenn der Gewöhnungseffekt einsetzt.

Im Fokus

Um die eingeblendeten Bilder zu erkennen, muss das Auge bewusst auf die Brillenebene fokussieren. Das schnelle Umschalten zwischen Weit- und Nahsicht erfordert ein wenig Übung – besonders, wenn man die Orientierung in der realen Welt nicht verlieren will. Bewegt man sich in einer sehr hellen Umgebung, kann das Bild in der Brille sehr blass aussehen. Außerdem strengt die Adaption an, wenn sich die Helligkeit von Brille und realer Umgebung stark unterscheiden. Nach Einschätzung von Experten ermüden die Augen bei monokularen, also einäugigen Brillen aber weniger schnell als bei Brillen mit zwei Displays. Mit einem Einzelglas kann man allerdings keine dreidimensionalen Bilder projizieren: Dafür braucht es mindestens zwei leicht unterschiedliche (Stereo-)Ansichten – für jedes Auge eine.

Zur Größe des von der Google-Brille projizierten Bildes nennt das Unternehmen keine harten Zahlen. Das Ankündigungsvideo (siehe c’t-Link) suggeriert jedoch, dass sich das virtuelle Bild über einen großen Teil des Sichtfeldes erstreckt. Die tatsächliche Bildgröße hängt von der am Bügelende sitzenden Prismenoptik ab. Sehr wahrscheinlich werden die Daten nur einen kleinen Ausschnitt des Blickfelds überdecken: Das sogenannte Field of View (FOV) benennt die Öffnungswinkel, die das projizierte Bild im Blickfeld des Betrachters belegt. Ausgehend vom menschlichen Sehen können dies theoretisch knapp 200 Grad horizontal und etwa 120 Grad vertikal sein – so viel kann der Mensch normalerweise ohne Kopfbewegung erfassen. Bei Googles Kopfbügel dürfte der FOV weniger als 20 Grad betragen.

Die Google-Datenbrille soll per Kopfbewegung und Sprache gesteuert werden. Die dafür notwendigen Bewegungen sollen so minimalistisch sein, dass sie Außenstehenden nicht auffallen. Über ein kleines Touchpad am Brillenbügel lassen sich grundlegende Aktionen ausführen – beispielsweise ein- und ausschalten oder die Spracheingabe aktivieren. Inhalte aus dem Internet kommen vom Smartphone oder einem Android-Kästchen, das per Bluetooth mit der Brille verbunden ist.

Technisch machbar

Dank der Verbindung zum Smartphone braucht eine ausgewachsene AR-Brille zwar nur wenig Funktionen, bestimmte Voraussetzungen sollte sie aber doch erfüllen. So ist eine Kamera am Brillenbügel unabdingbar, um die Umgebung zu erkennen und darüber Informationen einzuholen. Erst dann können ortsbezogene Daten in die Brillen eingeblendet werden. Beispielsweise aus sogenannten AR-Browsern wie Layar, Wikitude oder Junaio: Sie zeigen Infos über die unmittelbare Umgebung, wenn man die Kamera über den Horizont schwenkt oder mit ihr auf ein Objekt zielt. So findet man sich schneller in einer fremden Umgebung zurecht und kann sehr einfach das nächstgelegene Hotel ansteuern oder die örtlichen Highlights kennenlernen. Man braucht lediglich eine Online-Verbindung und eine kleine App auf dem Mobilgerät [1].

Die Auswertung der Kamerabilder und die Bereitstellung der AR-Informationen muss echtzeitnah erfolgen. In einigen AR-Anwendungen muss der Nutzer nicht einmal mehr selbst entscheiden, was analysiert werden soll. So identifiziert die AR-App Goggles während der laufenden Videoaufzeichnung Objekte, ohne dass man explizit ein Foto davon schießen muss und ohne jegliche Marker am Objekt. Auch der AR-Browser Junaio der Münchener Firma Metaio analysiert fortlaufend die Videoaufnahmen, fischt Infos aus einer Datenbank heraus, sobald ein ihm bekanntes Objekt ins Bild kommt, und legt sie über das Videobild im Browser-Fenster.

So raffiniert scheint Google im Project Glass noch nicht vorzugehen: Im Ankündigungsvideo werden für ortsbezogene Dienste offenbar keine Kamerabilder, sondern nur Kompass- und GPS-Signale ausgewertet. Demzufolge wird man mit Googles AR-Brille zunächst keine Angaben zu den Objekten im Blickfeld erhalten. Stattdessen sollen offenbar Informationen eingeblendet werden, die man sonst am Smartphone abrufen würde – anstehende Termine etwa, Nachrichten aus sozialen Netzwerken oder die aktuelle Wettervorhersage. Außerdem wird gezeigt, dass man mit der Brillenkamera Bilder und Videos aufnehmen, per GPS verorten und sie von unterwegs über Facebook & Co. oder per Google Talk respektive Skype mit Freunden teilen kann.

Für ortsbezogene Informationen müssen die Bilder von erweiterter und realer Welt dagegen passgenau übereinanderliegen. Dafür muss die Position des Betrachters im Raum und im besseren Fall auch die Blickrichtung der Augen erfasst werden. Eine Positionsbestimmung über GPS reicht nur für Objekte, die sich nicht in unmittelbarer Nähe des Betrachters befinden – läuft man durch eine Stadt, wird man deren Sehenswürdigkeiten, U-Bahn-Stationen oder Restaurants per GPS relativ genau orten können. Für sehr nahe Objekte, etwa das Bild im Museum, ist die GPS-Ortung zu ungenau. Dann könnten kleine Marker respektive QR-Codes am Objekt helfen, die von der Kamera erfasst und vom Server ausgewertet werden.

Die Ermittlung der Blickrichtung beziehungsweise der Augenbewegung ist technisch aufwendig. Theoretisch könnte man die Brille beziehungsweise deren Bügel als Orientierung nutzen und die Augenposition relativ dazu bestimmen. Doch wenn der Bügel nur ein wenig verrutscht, stimmt die prognostizierte Augenposition nicht mehr. Dann werden womöglich Informationen zu Objekten – oder Personen – eingeblendet, die der Brillenträger gar nicht im Blick hat.

Eine mögliche Lösung des Problems: das am Fraunhofer Institut für Mikromechanische Systeme (IPMS) entwickelte bidirektionale OLED. Es kann sowohl Bilder ausgeben als auch Bilder erkennen. In den Pixeln des organischen Displays sitzen dafür kleine Fotodioden. Die Forscher münzten das Ganze in ein Display mit integriertem Eye-Tracking um. Allerdings befindet sich das OLED-System – wie Googles Datenbrille – noch im Entwicklungsstadium. In ersten Ausgaben von künftigen AR-Brillen wird man solch ambitionierte Technik deshalb wohl nicht antreffen.

Virtuelle Welten

Will man keinerlei ortsbezogene Informationen einblenden, sondern nur einen Blick auf Termine oder Wetterdaten werfen, kommt die Brille ohne Eyetracker und ohne Kamera aus – wie die monokulare AR-Brille Airscouter von Brother: Sie enthält ein kleines LCD, dessen Darstellung über einen halbtransparenten, leicht verkippten Spiegel zum Auge des Betrachters gelenkt wird. Brother möchte die Airscouter vor allem im industriellen Bereich eingesetzt wissen, wo beispielsweise auf dem Display Arbeitsanweisungen angezeigt werden, sodass der Monteur beide Hände frei hat. Unser Test ab Seite 102 beschreibt die Möglichkeiten und Einschränkungen solcher einäugigen Brillen wie der Airscouter und zweiäugigen wie Epsons Moverio.

Die Moverio BT-100 ähnelt dem glänzenden Visor des USS-Enterprise-Chefingenieurs Geordi la Forge. Sie wird von einem kleinen Android-Kästchen gesteuert, das auch die Online-Verbindung herstellt. In die transparente Glasfront der Videobrille wurden kleine halbdurchlässige Prismenstrukturen eingeschliffen, die das Bild von zwei im Brillenbügel sitzenden Projektionseinheiten zu den Augen des Trägers lenken. Da die Brille ein Display für jedes Auge besitzt, kann man mit ihr auch Bilder und Filme in 3D sehen. Die Brillenfront lässt sich mit einer getönten Blende abschirmen, wenn man in einem geschlossenen Raum in Ruhe ein Video schauen will. Mit geöffneter Blende behält man dagegen beim Surfen oder Netzwerken die Orientierung im Raum.

Komplett orientierungslos ist man mit Brillen für Virtual Reality (VR). Mit ihnen taucht der Betrachter in das Geschehen am Display ein und wird dabei von der realen Welt so gut wie möglich abgeschirmt. Die virtuelle Realität ist eine computergenerierte, möglichst realistische und im besseren Fall interaktive Szenerie. In unserem Test stellen wir aktuelle VR-Brillen für Gaming und als Kopfkino vor, darunter Sonys aktuelles OLED-Visier HMZ-T2, die Vuzix Wrap 1200 sowie die Cinemizer OLED von Zeiss.

Für das komplette Eintauchen – die sogenannte Immersion – müssen eigentlich die Kopfbewegungen ausgewertet werden. Ohne Tracking fällt der Nutzer beim Umherschauen quasi aus der dargestellten Szenerie. Leider erfassen die bezahlbaren VR-Brillen die Bewegungen des Kopfes derzeit nicht oder nur gegen Aufpreis. Ab Seite 110 stellen wir deshalb ein Setup vor, das mit frei erhältlichen Trackern, Microsofts Kinect-Kamera und einer Sprachsteuerung den Träger der VR-Brille tief in die virtuelle Welt versetzt. Im Optimalfall werden neben Hören, Sehen und Sprechen zusätzlich Bewegungen des Brillenträgers wie Schritte, Gesten oder Mimik erkannt und umgesetzt. Dann steuert man das Gesamtsystem mit seiner natürlichen Motorik und verbleibt auch bei der Interaktion mit dem System und den Mitstreitern komplett in der computergenerierten – virtuellen – Welt.

AR-Anwendungen

Hier liegt genau der Unterschied zur erweiterten Realität: Bei AR geht es nicht ums Eintauchen, sondern darum, den Blick auf die reale Welt in Echtzeit mit computergenerierten Bildern und Infos zu bereichern, ohne ihn zu beeinträchtigen.

Für ausgefeilte AR-Anwendungen braucht man schon jetzt nur ein Smartphone mit eingebauter Kamera und eine Online-Anbindung. Der Vorteil einer AR-Brille wird aber schnell klar, wenn man versucht, mit der Smartphone-Kamera halbwegs ruhig auf ein Objekt zu zielen: Statt umständlich das Mobilgerät zu zücken, behält man mit der Brille auf der Nase einfach das gewünschte Objekt im Blick.

So lässt sich die erweiterte Realität im öffentlichen Raum ausgezeichnet für touristische Zwecke nutzen. Im Yuanmingyuan-Park in China wurden beispielsweise AR-Displays in schwenkbare Aussichtsfernrohre integriert, um Besuchern der historischen Stätte das ursprüngliche Erscheinungsbild des Ortes näherzubringen. Für die Werbewirtschaft sind AR-Anwendungen fast schon der erste Schritt ins Paradies. So könnte man dem Besucher beim Stadtbummel nicht nur touristische beziehungsweise geschichtsträchtige Attraktionen nahebringen, sondern sie auch gleich mit Hinweisen auf örtliche Konsumtempel füttern.

Etliche Unternehmen bringen ihren Kunden die Produkte in Katalogen und Zeitschriften bereits per erweiterter Realität nahe. So findet sich im aktuellen Ikea-Katalog an diversen Stellen ein Smartphone-Piktogramm (kein QR-Code), das auf die dort eingebaute AR hinweist: Hält man das eigene Smartphone über die jeweilige Heftseite, erscheint automatisch eine Animation des gezeigten Möbelstücks (Schubladen fahren aus einem Bett rein und raus), es werden Produktdetails gezeigt, die im Heft nicht zu erkennen sind (beispielsweise das Ordnungssystem im Schrank) oder es starten Werbevideos zur Produktfamilie.

In einigen Modezeitschriften bewegen sich die fotografierten Models sehr grazil über den Laufsteg und präsentieren dabei ihre Kleidungsstücke, sobald man mit dem Smartphone über die Seite fährt. Auch Magazine wie Spiegel oder Süddeutsche ergänzen ihre Heftartikel per AR um animierte Zusatzinfos. Auf Produktverpackungen bekommt man per Smartphone den Inhalt des Kartons oder kleine Spielchen präsentiert – beispielsweise schwimmen bei Ravensburger einige der im Puzzle abgebildeten Fische plötzlich im Smartphone-Display.

Deutlich perfider sind AR-Anwendungen, die Mitmenschen quasi erkennungsdienstlich behandeln: Nach einer Identifikation per Gesichtserkennung – etwa über einen Facebook-Account – werden Informationen über die jeweilige Person eingeholt und ins Sehfeld des Brillenträgers eingeblendet. Im Job weiß man so unverzüglich Namen, Firma und Position sämtlicher Konferenzteilnehmer, auf der Party beispielsweise den Status und die Hobbys der Mitfeiernden. Solche Anwendungen dürften allerdings vielen Menschen Unbehagen bereiten.

Unkritischer ist die erweiterte Realität als Hilfsmittel in der Industrie. Da erfährt der Wartungstechniker beim Blick in den Motorraum unverzüglich per AR-Display, welcher Anschluss welchem Zweck dient und welcher Schlauch wohin gehört. VW entwickelt solche AR-Anwendungen gemeinsam mit der Münchener Firma Metaio im Projekt MARTA (Mobile Augmented Reality Technical Assistance). Der Autobauer verspricht sich davon unter anderem eine schnellere Ausbildung neuer Mitarbeiter.

Auch in der Produktentwicklung wird die erweiterte Realität genutzt: Anhand computergenerierter Bilder, die dem realen Prototyp überlagert werden, kann man den beteiligten Teams einfacher vermitteln, in welche Richtung sich ein Entwurf entwickeln soll, welche Änderungen anstehen oder wo noch gefeilt werden muss. Die Anschaulichkeit solcher Systeme lässt sich auch in der Medizin nutzen. So kann bei der Diagnose oder im OP die reale Körperansicht beispielsweise mit Bildern aus dem Computertomografen überlagert werden. Auch im Bildungsbereich könnte die erweiterte Realität künftig Einzug halten.

Forschungslandschaft AR

Zuerst wurde Googles Project Glass gehypt, danach geisterte auch Microsofts Fortaleza-Projekt durchs Internet. Das allerdings nur ganz kurz: Die mit der Ankündigung der neuen XBox durchgesickerten Dokumente wurden zunächst von Microsoft selbst entfernt und dann auf Antrag einer mit den Redmondern verbundenen Anwaltskanzlei auch an anderen Stellen im Internet gelöscht. Natürlich findet sich trotzdem noch das ein oder andere Dokument.

Aus denen lässt sich ablesen, dass 2014 eine Videobrille für die XBox auf den Markt kommen soll. Mit ihr verspricht Microsoft ein komplett immersives Unterhaltungserlebnis – eine drahtlose 3D-Brille, die den Nutzer in virtuelle Welten abtauchen lässt. Für das folgende Jahr ist eine mobile Brillenvariante geplant. Sie soll sich auch außerhalb des Wohnzimmers betreiben lassen, per Sprache gesteuert werden und die Daten über das Mobilfunknetz aus der Cloud erhalten. Die Brille erlaubt es, in Filme und Games einzutauchen und auch Informationen über die reale Welt einzuholen – womit sie eine Kombination aus AR- und VR-Brille ähnlich wie Epsons Moverio wäre. Oder aber Microsoft will eine zweite Brille rausbringen. Technische Details über das Fortaleza-Projekt gibt es derzeit nicht.

Olympus hat im Sommer einen Prototyp seiner Datenbrille MEG 4.0 vorgestellt. Sony möchte ebenfalls bei der erweiterten Realität mitmischen und hat deshalb einige Patente für mögliche Brillenlösungen eingereicht. Ganz ähnlich verhält es sich bei Apple. Angesichts der rasanten Entwicklung, die AR derzeit durchläuft, scheinen Datenbrillen ein wichtiger Schritt in die mobile Zukunft zu sein. Zumal dank der Power aktueller Mobilgeräte und der Datenauslagerung in die Cloud niemand mehr einen Rucksack voll Gerätschaften mitschleppen muss, um die Brille unterwegs mit Inhalten zu füttern. (uk)

Literatur
  1. [1] A. Barczok, G. Himmelein, P. König, Mit dem Dritten sieht man besser, Augmented Reality: Computer-unterstützter Blick in die Welt, c’t 20/09, S. 122

Artikel kostenlos herunterladen

weiterführende Links

Kommentare

Infos zum Artikel

Kapitel
  1. Brillenträume
  2. Im Fokus
  3. Technisch machbar
  4. Virtuelle Welten
  5. AR-Anwendungen
  6. Forschungslandschaft AR
7Kommentare
Kommentare lesen (7 Beiträge)
  1. Avatar
  2. Avatar
  3. Avatar
Anzeige

Anzeige

weiterführende Links
  1. Zu diesem Artikel hat die Redaktion noch folgendes zusammengestellt:

    Links (8)

Anzeige