Google Glass: Was Entwickler wissen müssen

Know-how  –  3 Kommentare

Googles Datenbrille stellt einen großen Schritt in Sachen Head-Mounted Displays dar – allein schon, weil dahinter ein starker Hersteller steht. Vor allem jene Anwendungen sind für Glass geeignet, die dem Benutzer kontextbezogene Daten anbieten.

Die Einführung von Head-up-Displays stellte einen enormen Fortschritt in der Avionik dar: Da Piloten nicht mehr auf die Instrumente im Cockpit ihres Flugzeugs sehen mussten, konnten sie ihre Augen immer auf der Umgebung halten (siehe Abb. 1). Erste Gerüchte versprachen, dass Googles Datenbrille Glass ähnliche Leistungen erbringen würde.

Der Pilot kann seine Augen auf der Landebahn halten - Informationen über Geschwindigkeit und Flughöhe erscheinen in der Umgebung (Abb. 1) (Bild: Wikimedia Commons / Joschiki)

Leider vermag die Hardware nicht die hohen Erwartungen der Gerüchteküche zu befriedigen. Google Glass ist eine reine Erweiterungskomponente, die zum Kontext passende Informationen anzeigt. Will der Benutzer die von der Brille angebotenen Daten sehen, muss er "nach oben" blicken, denn der Bildschirm sitzt "über" der normalen Sichtachse.

Die dahinter stehende Hardware ist durchaus mächtig. Ein zweikerniger Prozessor von Texas Instruments betreibt Android 4.0.4, der Bildschirm bietet eine Auflösung von 640 x 360 Pixeln. Ein am Rahmen der Brille befindliches Touchpad erlaubt das Steuern der Brille durch Gesten. Das bedeutet, dass der Anwender mit der Brille kommuniziert, indem er an deren Rahmen "wischt" (s. Abb. 2).

Ein auf der Seite der Brille befindliches Touchpad erlaubt die Eingabe von Gesten (Abb. 2). (Bild: Wikipedia Commons / Loic le Meur)

Die primäre Interaktion erfolgt per Sprache. Mit "OK Glass" beginnende Sprachbefehle erlauben den direkten Zugriff auf die meisten Funktionen der Brille – Antworten erscheinen am Bildschirm, zudem lassen sich die meisten der als Karten bezeichneten Bildschirminhalte "vorlesen".

Noch ist nicht klar, wann Google die Brille für die Allgemeinheit verfügbar machen will. Bisher hatten nur wenige, als Explorer bezeichnete Kunden die Gelegenheit, die Brille anzuschaffen. Vor einigen Wochen durfte jeder Explorer drei weitere Personen einladen, die die Brille ebenfalls kaufen und bei Google abholen (!) durften. Mittlerweile gibt es eine zweite Version, die den in der ersten Version verbauten Knochenschall Lautsprecher durch ein optionales Mono-Headset ersetzt. Zudem soll die neue Version besser mit optischen Brillen zusammenarbeiten. Vermutlich kommt Glass erst 2014 in den Massenmarkt.

Erste Einsatzszenarien

Die Hardware erinnert in vielerlei Hinsicht an ein Android-Smartphone. Trotzdem ist es grob fahrlässig, Handy-Programme direkt auf Glass zu übertragen. Das liegt daran, dass die Brille einen komplett anderen Einsatzzweck hat. Smartphones dienen als Kommunikationssystem und kleiner mobiler Computer. Head-Mounted Displays (HMD) befriedigen ein anderes Nutzungsszenario: Die Brille hat die Aufgabe, ihrem Träger weitere Informationen zu seiner Umgebung zu geben. Steht der User beispielsweise vor einer Brücke, fragt er das HMD unter Umständen nach Informationen zu ihr. Diese beantwortet Glass sodann nach bestem Wissen und Gewissen. Die Abbildungen drei und vier zeigen den Workflow im Detail.

Die Länge der Brooklyn Bridge ist interessant ... (Abb. 3) (Bild: Google)
... und Google Glass weiß die Antwort (Abb. 4). (Bild: Google)

Glass ist für all jene Anwendungen geeignet, die dem Benutzer kontextbezogene Daten anbieten. Neben Navigations- und Sightseeing-Applikationen lässt sich das Gerät zum Einkaufen anwenden. In der Modeindustrie gibt es mittlerweile diverse Proof of Concepts. Das Startup Glashion (ein Wortspiel aus Glass und Fashion) bietet einen Kleidungserkennungsdienst an, der das Hochladen von Bildern als attraktiv empfundener Personen erlaubt – ein Team von Stylisten analysiert das Bild und empfiehlt ähnlich aussehende Kleidungsstücke.

Aufgrund der vergleichsweise leistungsfähigen Kameras wäre es auch vorstellbar, die Brille als Werkzeug zum Pflegen der diversen sozialen Netze einzusetzen. Instagram könnte Usern das "Einsammeln" von Bildern erlauben, die danach am Tablet oder Smartphone weiterbearbeitet werden.

Allgemein gilt, dass erfolgreiche Glass-Applikationen die am Tablet oder Smartphone laufende "Mutter-App" erweitern. Palm beschrieb seine Handhelds als "Tentakel, das in den PC greift" – ein ähnlicher Denkansatz ist auch beim Entwickeln von Glass-Applikationen zielführend.