Parallelgesellschaft

Virtual Reality auf der Game Developers Conference

Trends & News | News

Nach den Augen dürfen jetzt auch die Hände in die Virtual Reality eintauchen. Valve und HTC zeigen mit Vive das bisher fortschrittlichste VR-System, das neben einer Brille auch Hand-Controller umfasst. Die gesamte Spiele-Industrie, vom Indie-Programmierer über Engine-Entwickler bis zum Grafikkarten-Hersteller, sieht in der VR ihre Zukunft.

Das vor zwei Jahren von Oculus entfachte VR-Fieber hat inzwischen die gesamte Branche infiziert. Auf der Game Developers Conference (GDC) in San Francisco war es in diesem Jahr für jeden einzelnen der insgesamt 26 000 Besucher unmöglich, allen Vorträgen zum Thema Virtual Reality persönlich beizuwohnen. Im straffen Programm hätte man sich vier- oder fünfteilen müssen, um tatsächlich alle Berichte und Analysen zu den Fortschritten in der virtuellen Welt hören zu können.

Dabei hielt sich Vorreiter Oculus mit Neuankündigungen zurück. Offenbar muss das mit Dollar-Milliarden vollgepumpte Start-up einige Wachstumsschmerzen verarbeiten. Es nannte noch immer keinen Termin für die Auslieferung der Rift-Brille an die Konsumenten. Auf der GDC erzählte Technik-Chef John Carmack aus dem Stegreif, mit welchen Tricks er Samsung-Handys für den Gear-VR-Adapter flottmachte, damit Anwender einen guten ersten Eindruck von der VR bekommen, ohne dass ihnen dabei gleich übel wird. Auf dem GDC Expo Floor konnten sich Besucher des Oculus-Standes davon überzeugen, wie gut man sich auch unterwegs mit dem Gear-VR-Aufsatz von seiner Umgebung abschotten kann (Bild oben).

Für Samsungs Galaxy S6 soll ein neuer Adapter Gear VR 2 auf den Markt kommen, der mithilfe eines Ventilators ein Beschlagen der optischen Linsen verhindert. Entwickler für Gear-VR-Programme können nun auch im Samsung-Shop Geld mit ihren Anwendungen verdienen. Carmack erwartet allerdings nicht, dass Samsung in diesem Jahr große Mengen der Gear-Systeme verkaufen wird. Dies wird wohl erst 2016 passieren. Samsung plane, alle sechs Monate ein verbessertes Modell von Gear VR zu veröffentlichen. Bei dieser hohen Schlagzahl werden die Systeme genauso schnell veralten, wie neue technische Kniffe die VR-Darstellung verbessern.

Mobilgeräte mögen zwar ausgewachsenen PCs in puncto Rechenleistung unterlegen sein, sie sind aber deutlich weiter verbreitet und deshalb laut Carmack besser geeignet, Anwendern auf der ganzen Welt einen ersten Einblick in die VR zu geben – dazu genügt notfalls bereits ein billiger Papp-Adapter für das Smartphone. Oculus fährt deshalb zweigleisig und forscht mit seinem koreanische Partner Samsung an Mobil- und Desktop-Geräten. Gleichzeitig hat Oculus begonnen, mit Grafikkarten-Herstellern wie Nvidia und AMD sowie Grafik-Konsortien wie der Khronos Group zu kooperieren, um neue Industrie-Standards für VR-Geräte zu etablieren, die die Einbindung in Treiber und die Unterstützung von Entwicklungsumgebungen sicherstellen.

95 Prozent aller VR-Spiele für die Rift würden mit Unity entwickelt. Dessen neue Version Unity 5 werde das Oculus SDK auch in seiner kostenlosen Personal Edition unterstützen. Mit ihr können auch Hobby-Entwickler und wenig technisch bewanderte Designer mithilfe von Physically Based Shadern fotorealistische Oberflächen erzeugen, die täuschend echt wie Metall, Holz oder Stoff aussehen und Licht physikalisch korrekt reflektieren. Eine öffentliche Beta-Version der VR-Integration für Unity 5 soll noch im März starten. Zudem experimentiert Oculus mit neuen 360-Grad-Kameras für VR-Filme wie Samsungs „Project Beyond“. Carmack erwartet jedoch bessere Ergebnisse, wenn Aufnahmen von Lichtfeld-Kameras für VR genutzt werden können, was allerdings noch etwas länger dauern wird.

Derweil rüstet auch Epic seine Unreal Engine 4 für VR auf und zeigte unter anderem fotorealistische Innenraum-Renderings, die dank Physically Based Shading und Lighting aussahen, als seien es Fotos aus einem Schöner-Wohnen-Magazin. Architekten sollen damit virtuelle Besichtigungen umsetzen, in denen Anwender komplett möblierte virtuelle Wohnungen mit einer VR-Brille besuchen. Spieler können derweil an einer Neuauflage des Shooters „Unreal Tournament“ mitwirken, den Epic mithilfe der Community entwickelt und kostenlos mit allen Sourcen unter www.unrealtournament.com verteilt.

Laser-Leuchttürme

Standards werden bald unumgänglich sein, wenn Programmierer mit ihrer Software den stetig wachsenden Zoo an VR-Geräten unterstützen wollen. Hatte im vergangenen Jahr Sony mit der Morpheus-Brille ihr großes VR-Coming-out, so war es in diesem Jahr Valve Software, die für die größte Überraschung sorgte. Zusammen mit HTC stellte Valve sein VR-System Vive vor, dessen Möglichkeiten weit über die der bisherigen Oculus-Brillen hinausgehen. Denn Valve hat in den vergangenen drei Jahren nicht nur an einer VR-Brille geforscht, sondern auch an geeigneten Eingabegeräten, die ein direktes Hantieren mit VR-Objekten ermöglichen – und das mit einer Präzision, die bislang teuren Profi-Systemen für Motion Capturing vorbehalten war.

Statt auf sündhaft teure High-Speed-Kameras setzt Valve auf Laser-Tracker. Der Anwender braucht lediglich einen leeren Raum, in dessen gegenüberliegende Ecken er zwei kleine Würfel platziert (Lighthouse genannt), die rotes gepulstes Laser-Licht in einem bestimmten Muster aussenden. Das Laser-Licht trifft auf optische Sensoren, die über die Außenseite der Vive-Brille und zwei Schirme am Ende von zwei Hand-Controllern verteilt sind. So können Brille und Controller überall im Raum ihre genaue Position und Richtung bestimmen. Das Ganze funktioniert so präzise, schnell und ohne Drift, dass der Anwender den virtuellen Raum genauso stabil und realistisch wahrnimmt wie die reale Umgebung.

Im Vergleich erreicht derzeit kein anderes bezahlbares VR-System eine solch hohe Genauigkeit. Oculus und Sony tracken ihre Brillen lediglich mit einer Kamera, die einen wesentlich kleineren Bewegungsradius abdeckt und weniger exakt arbeitet. Sixense zeigte eine fast fertige Version seiner Stem-Controller, die ihre Position anhand eines Magnetfeldes ermitteln. In einer Jedi-Simulation, die dem von uns im Herbst vorgestellten MoCap-System von Benjamin Teitler frappierend ähnlich war, konnte man mit zwei Lichtschwertern gegen eine Drohne kämpfen. Allgemein war das Tracking recht gut, jedoch störten immer wieder kleine Sprünge und Schwankungen den Realismus der VR-Umgebung. Stem soll im zweiten Quartal zu Preisen ab 390 US-Dollar für drei Tracker plus Basis-Station auf den Markt kommen.

Vive la Vive

Zurück zu Vive: Rund ein halbes Dutzend kurzer Demos hatte Valve vorbereitet, um die Möglichkeiten des Systems aufzuzeigen. Ihnen allen war gemein, dass der Anwender sich genauso durch den virtuellen Raum wie durch den realen Raum bewegt. Valve hat sämtliche Bewegungsparameter penibel abgestimmt, sodass die reale Körperhaltung, Kopf- und Handbewegungen 1:1 in die VR übernommen werden. So verhindern die Entwickler mulmige Situationen, die sonst die Simulator-Übelkeit auslösen.

Einmal kalibriert, erkennt das System auch die realen Wände des Raums. Damit der Anwender sich nicht stößt, blendet Valve automatisch ein Energie-Gitter ein, sobald er sich einer Wand nähert. Unter der VR-Brille sieht er auch genau die Position der beiden Controller für die linke und rechte Hand. Beide ähneln Sonys Move-Controllern für die Playstation. Per Daumen bedient man ein rundes Touchpad, auf dem man beispielsweise in einem Malprogramm die Pinselfarbe und Liniensorte auswählt. Zieht man mit dem Zeigefinger am Abzug, so umfasst die virtuelle Hand ein Objekt, öffnet beispielsweise eine Schublade oder holt ein Ei aus einem virtuellen Kühlschrank, um es anschließend in einen Topf oder aber gegen die Wand zu werfen. Zwei weitere Taster an den Controller-Seiten können mit zusätzlichen Greif-Funktionen belegt werden – wenn man so will, machen die Vive-Controller einen virtuellen Pinzettengriff möglich. Ohne sie ist man zwar mittendrin, aber nicht dabei.

In einer an Portal angelehnten Roboter-Simulation zeigte Valve, wie wichtig ein präziser Controller im virtuellen Raum ist. Als Spieler sollte man unter Zeitdruck einen Roboter reparieren, dessen Innereien sich wie eine Explosionszeichnung im Raum vor einem öffneten. Die Controller musste man an den richtigen Sensorpunkten einklinken und Zahnräder in Position drehen. Als das nicht klappte, wurden die virtuellen Wände eingerissen und der Spieler fuhr in einem offenen Fahrstuhl durch eine riesige Halle. Da der Spieler nicht endlos in eine Richtung laufen kann, müssen Entwickler neue Erzählformen – etwa aus dem Theater – übernehmen, sodass der Spieler an Ort und Stelle eine abwechslungsreiche Story erlebt.

Grob geglättet

Valve forscht bereits seit drei Jahren an dem Vive-System. Zehn Prozent der 350 Beschäftigten des Unternehmens sind damit betraut. Eine Entwickler-Version soll im Mai verfügbar sein, der offizielle Verkauf an Konsumenten vor Weihnachten beginnen. Derzeit sind die Controller zwar noch per Kabel angebunden, die finale Version soll jedoch auf Funk-Controller umsteigen. Die Brille wird weiterhin an einer HDMI- und USB-Strippe am Rechner hängen. Der Grund ist die hohe Übertragungsrate, für die es bislang keine kabellosen Transmitter gibt.

Das OLED-Display der Vive-Brille arbeitet mit einer Auflösung von 2160 × 1200 Pixeln, die mit 90 Hz angesteuert werden. Ein Low-Persistance-Modus, der jeden Frame nur kurz aufflackern lässt, verhindert Schmier-Effekte bei Kopfbewegungen. Valve deckt einen Blickwinkel von 110° ab – etwas größer als bei Sony und Oculus, wodurch man weniger den Eindruck hat, durch eine zu kleine Taucherbrille in die VR-Welt zu blicken. Jedes Pixel besteht zudem aus drei RGB-Subpixeln – Kontrast und Helligkeit sind merklich höher als bei der neuesten Crescent-Bay-Version der Oculus Rift.

Zwar arbeitet die Vive-Brille mit einer etwas höheren Auflösung als Oculus Rift oder Sonys Morpheus, der Fliegengitter-Effekt ist aber weiterhin sichtbar. Um die Grafik zu verbessern, rendert Valve deshalb die 1,4-fache Auflösung (3024 × 1680 Pixel) und glättet Kanten mit 8xMSAA. Dazu müssten die Shader der Grafikkarte 457 Millionen Pixel pro Sekunde berechnen. Weil die optischen Linsen das Bild verzerren und der Spieler deshalb nicht alle Pixel sieht, werden unsichtbare Bereiche über eine Mesh-Schablone ausgeschnitten, sodass letztlich nur 378 Millionen Pixel pro Sekunde zu berechnen sind – etwa dreimal so viel wie bei einem Full-HD-Monitor mit 60 Hz. Valve und HTC blicken jedoch bereits auf die zweite Vive-Generation mit einem 4K-Display. Wie bei Oculus werden also auch hier in den nächsten Jahren in kurzen Abständen immer neue VR-Systeme auf den Markt kommen.

VR-Grafiktreiber

Diese Entwicklung spornt natürlich auch andere Hardware-Hersteller an. Denn bei solch hohen Bildraten kommt selbst die derzeit schnellste GPU ins Schwitzen. Deshalb arbeiten sowohl Nvidia als auch AMD an VR-Grafiktreibern, die auf die speziellen Ansprüche der VR-Brillen eingehen. Nvidia nennt seinen Treiber VR Direct. Er unterstützt Fermi-, Kepler- und Maxwell-GPUs bislang nur in DirectX 11; eine OpenGL-Anbindung ist in Arbeit. AMD nennt seinen Treiber Liquid VR, der mit allen GCN-Karten ab 2011 zusammenarbeitet. Beide Treiber bieten im Großen und Ganzen die gleichen Funktionen. In puncto Entwicklungszeit scheint AMD einen leichten Vorsprung zu haben, da sie ihren Treiber bereits mit Valve auf deren SteamVR-API abstimmen konnten und zusammen maßgeblich die Entwicklung des OpenGL-Nachfolgers Vulkan vorantreiben.

Beide Treiber reduzieren den Aufwand für stereoskopisches Multiview-Rendering, indem sie für das rechte und linke Auge nur die Teile doppelt berechnen, die sich tatsächlich unterscheiden. Vor allem minimieren sich dadurch Zugriffe auf den Texturspeicher. Zudem verkürzen die Treiber Latenzen, indem nur noch ein Frame gepuffert und für die gleichmäßige VSync-Darstellung auf den von Oculus entwickelten Asynchronous Timewarp (ATW) zurückgegriffen wird. Kommt der Renderer in einer besonders komplexen Szene einmal nicht hinterher und berechnet den neuen Frame zu langsam für die eingestellte VSync-Rate, dann wird einfach der vorige Frame genommen und kurz mit den aktuellen Positionsdaten aus dem Kopfsensor verschoben. So kommt es nicht zum befürchteten Judder, wenn die aktuelle Framerate unter die des Bildschirms fällt.

Zudem verbessern AMD und NVidia den SLI-Modus für VR-Spiele, bei dem jede GPU die Bilder für ein Auge berechnet. Dadurch soll das gefürchtete Mikro-Ruckeln verhindert werden, das sonst bei der Berechnung des jeweils nächsten Bildes durch eine GPU auftreten kann.

Kombiniert man diese Verbesserungen mit den weiteren Effizienz-Steigerungen, die für DirectX 12 und Vulkan erwartet werden (siehe Seite 28), so dürften einzelne High-End-Grafikkarten im kommenden Jahr tatsächlich dazu in der Lage sein, VR-Spiele für Vive mit allen Details in 90 Hz zu rendern.

Der Morpheus-Trick

Sony muss für seinen VR-Helm Morpheus mit der wesentlich geringeren Rechenleistung einer PS4 auskommen. Gegenüber dem ersten Prototyp vom Vorjahr hat Sony vor allem das Display verbessert. Das neue OLED-Display in Full-HD-Auflösung arbeitet nun mit bis zu 120 Hz. Dank Low-Persistance-Darstellungen gehören die verschmierten Bilder bei Kopfbewegungen der Vergangenheit an. Weil die PS4 bei einer Framerate von 120 Hz allerdings zu wenig Zeit hätte, um jedes Bild schön zu rendern, bedient sich Sony eines Tricks: Tatsächlich rendert die Konsole in den meisten Fällen nur 60 Bilder pro Sekunde, gleicht jedes davon jedoch zweimal mit den aktuellen Daten des Kopftrackers ab – eine Art doppelter Timewarp.

Verbessert hat Sony auch den Tragekomfort. Die am Kopfband befestigte VR-Brille lässt sich besser auf Brillenträger abstimmen und zwischendurch wegklappen, wenn man mal zur Chipstüte greifen will. Über die Anschlussbox wird die Brille zwischen Konsole und Fernseher eingeklinkt, sodass auch Mitspieler beobachten können, was der VR-Spieler sieht. Ein integriertes Mikrofon soll zudem Chats vereinfachen.

Sony will Morpheus in der ersten Hälfte 2016 auf den Markt bringen und zeigte auf der GDC diverse kleine Demo-Szenen. Vollwertige VR-Spiele will der Hersteller erst auf der E3 im Juni vorführen. Preise nannte Sony nicht. Da es sich jedoch um ein Konsolenzubehör handelt, wären mehr als 400 Euro wohl schwer vermittelbar. Für das Positionstracking benötigt man zudem die PS-Kamera, die auch die Position des PS4-Gamepads und der Move-Controller verfolgen kann.

Im Unterschied zu Oculus setzen Sony und Valve auf VR-Systeme, die bereits eigene Controller mitbringen, sodass Entwickler sich hier auf ein genau definiertes Hardware-Setup konzentrieren können. Dies vereinfacht die Entwicklung von VR-Spielen, die zurzeit noch immer im Wesentlichen aus kleinen Demos und Experimenten sowie erweiterten PC-Spielen bestehen. Um ihre VR-Systeme zum Erfolg zu führen, werden Sony und Valve nicht umhin kommen, selbst neuartige und spezialisierte VR-Spiele zu entwickeln, die Spieler langfristig in ihren Bann ziehen, ohne dass ihnen aufgrund einer schlechten Abstimmung übel wird. Als Kontrolleur des eigenen Playstation-Online-Shops könnte Sony zumindest sicherstellen, dass dort nur solche VR-Spiele verkauft werden, die einem gewissen Standard genügen.

Googles Tango

Im Vergleich zu VR hinken brauchbare Systeme für Augmented Reality (AR) hinterher. So sind Googles Experimente mit dem „Project Tango“ noch weit von einer Marktreife entfernt. Google stattet dazu Tablets neben Kameras mit 3D-Scannern aus, die ähnlich wie die Kinect-Kamera ein Tiefenbild der Umgebung berechnen und somit 3D-Abbilder von Innenräumen aufnehmen. Bei den auf der GDC gezeigten Prototypen war die Positionsbestimmung allerdings noch ungenau. Das 3D-Abbild wurde nur mit einer Rate von 2 bis 5 Bildern pro Sekunde aktualisiert. Zwar sah man bereits erste AR-Demos, in denen auf den Tablet-Displays virtuelle Objekte in die reale Umgebung projiziert wurden, die Darstellung war jedoch schwächer als in den AR-Spielen, die man von der PSP oder 3DS her kennt. Neue 3D-Sensoren könnten die Scan-Qualität verbessern. So zeigte Softkinetic eine neue Miniatur-Version seiner Time-of-Flight-Kamera, dessen Sensor man künftig in Tablets und Smartphones einbauen könnte.

Raus in die Natur

Wer bei all dem VR-Spielzeug Angst bekommt, dass seine Kinder künftig gar nicht mehr vom Bildschirm wegzulocken sind, kann mit ihnen in Zukunft einen AR-Spielplatz besuchen, wie ihn Biba und PlayPower derzeit in den USA entwickeln. An den realen Rutschen und Schaukeln können Eltern QR-Codes mit der Biba-App scannen, woraufhin sich der Spielplatz in eine virtuelle Roboter-Absturzstelle verwandelt, auf der ihre Kinder AR-Abenteuer erleben können. Aus der Rutsche wird dann eine Autorennbahn, die das Kind schnell durchlaufen muss. Nach jeder Rutsch-Runde tippt es auf das Smartphone und ermittelt seine Rundenzeiten, selbst ein virtueller Boxenstop zum Nachtanken ist vorgesehen. Oder aus dem Klettergerüst wird ein virtueller Eiffelturm. Die AR-Spiele von Biba umfassen rund ein halbes Dutzend solcher Wettrennen, Schatzsuchen und kooperativen Spiele. Entwickelt wurde das Konzept von Greg Zeschuck, der bis 2012 die Rollenspiel-Entwicklung bei Bioware leitete. Neben Spielplätzen von PlayPower sollen auch andere Spielplätze für die Biba-App nachgerüstet werden können. Dann brauchen Kinder künftig nicht einmal mehr im Sandkasten ihre eigene Fantasie zu bemühen – schön wird sie, die neue virtuelle Welt. (hag@ct.de)

Artikel kostenlos herunterladen

weiterführende Links

Anzeige
Anzeige