Menü

GDC: Vom Motion Capturing à la Hollywood zum mobilen 3D-Scanner

vorlesen Drucken Kommentare lesen 15 Beiträge

Neben Virtual Reality gehört das Motion Capturing realer Schauspieler zu den derzeit spannendsten technischen Entwicklungen in der Spieleindustrie. Vorreiter Sony kann mittlerweile komplette Szenen mit realen Schauspielern auf 360-Grad-Bühnen aufnehmen und als 3D-Szenen fotorealistisch im Rechner rendern. Auf der Game Developer Conference in Köln demonstrierte Entwickler David Cage von Quantic Dream die Technik.

Derzeit müssen die Gesichter der Schauspieler noch mit Markierungen präpariert werden, bald wird dies überflüssig.

(Bild: Sony)

Für sein Anfang Oktober für die PS3 erscheinendes Spiel "Beyond" standen Ellen Page und Willem Dafoe vor 60 Kameras, die ihre Bewegungen von allen Seiten aufzeichneten. Diese wurden dann auf ihre digitalen Ebenbilder übertragen, sodass die Szene im Computer fotorealistisch gerendert wurde. Dabei mussten die Schauspieler sehr kurze einzelne Szenen spielen, etwa das Aufstehen von einem Stuhl oder das Öffnen einer Tür, die im Spiel je nach den Eingaben des Spielers zu interaktiven Szenen zusammengesetzt werden. Wirkte der Vorgänger "Heavy Rain" noch in vielen Szenen statisch, so soll Beyond dem Spieler deutlich mehr Kontrolle über die Figuren geben und gleichzeitig den cinematischen Stil beibehalten.

Eine spezielle Video-Editing-Software erlaubt Cage, per Motion Capturing eingefangene Szenen mit beliebigen virtuellen Kameras abzufahren.

Das System will Cage für sein nächstes Spiel, das er derzeit für die PS4 plant, noch erweitern. Anhand einer Szene "The Dark Sorcerer" demonstrierte der Franzose eine eigens entwickelte Software, mit der sich die per Motion Capturing eingefangene Szenen mit virtuellen Kameras abfahren lassen. Wie ein Filmregisseur kann Cage Kamerafahrten im virtuellen Raum vorgeben, die Linsenoptik sowie den Schärfebereich vorgeben und sogar subtile Bewegungen menschlicher Kameraleute nachahmen, damit die Szenen natürlicher wirken. Im Rechner hat er die komplette Kontrolle, kann nach Belieben die Beleuchtung ändern und sich nachträglich aussuchen, aus welchem Kamerawinkel sich eine Szene am besten einfangen lässt.

Mit "The Dark Sorcerer" gibt David Cage einen Vorgeschmack, was von seinem nächsten PS4-Spiel grafisch zu erwarten ist.

Das Zusammenwachsen der Film- und Spieleindustrie werde laut Cage neue Berufe hervorbringen. Künftig werde man auch für Spiele Spezialisten für Kamera, Beleuchtung und Regie benötigen, die eine eigene neue Ästhetik entwickeln.

Faceshift captured Gesichter ohne Markierungen und überträgt die Mimik in Echtzeit auf 3D-Figuren.

Bislang müssen die Körper und Gesichter der Schauspieler jedoch mit Markierungen präpariert werden, damit die Rechner sie korrekt einfangen. In der nächsten Entwicklungsstufe wird das jedoch nicht mehr nötig sein. So zeigte das Schweizer Unternehmen Faceshift auf dem GDC-Stand von PrimeSense, wie sich Gesichter ohne Marker in Echtzeit erfassen und die Mimik auf 3D-Figuren übertragen lassen. Faceshift ließ Besucher mit ihrem Gesicht verschiedene 3D-Figuren wie etwa ein Alien steuern. Die Firma setzt dabei auf die offene Schnittstelle OpenNI. Über mitgelieferte Plugins lassen sich die Animationsdaten sehr einfach in Rendering-Programme wie Maya oder MotionBuilder übertragen.

Der Prototyp der neuen 3D-Kamera von Primesense ist so klein, dass er in Smartphones und Tablets eingebaut werden kann.

Primesense entwickelte die Sensortechnik für Microsofts Kinect-Kamera und bietet eigene Modelle unter dem Namen Carmine an. Als neuesten Prototypen zeigte Jeremie Kletzkine auf der GDC den Capri-Chip, eine mobile Version des Carmine-1.08-Sensors, der sich aufgrund der kleinen Abmessungen in Mobiltelefone und Tablets einbauen lässt. Der Prototyp wird einfach an einer Ecke eines Tablets befestigt und per USB verbunden. Die Test-Apps können nun das normale Bild des Kamera-Sensors im Tablet mit einem zusätzlichen 3D-Bild mit Tiefeninformationen aus dem PrimeSense-Sensor überlagern. Der Sensor erfasst die Umgebung mit VGA-Auflösung in einem Bereich von 0,8 bis 4,0 Meter. So wird aus dem Tablet ein mobiler 3D-Scanner, mit dem sich die Umgebung abtasten lässt.

Mit dem Sensor wird ein Tablet zum mobilen 3D-Scanner. Reale Bilder lassen sich mit den 3D-Modellen überlagern und verfremden.

Kletzkine demonstrierte die Möglichkeiten anhand einiger Demos, die beispielsweise die Besucher mit einem 3D-Gitter überzogen oder eine virtuelle Spielfigur zwischen ihren Beinen hindurchlaufen ließ. Primesense sucht derzeit Software-Entwickler für mobile Anwendungen, die auf Nachfrage einen der kleinen Prototypen bekommen können. Konkrete Hersteller, die die Primesense-Kamera künftig in ihre Smartphones und Tablets einbauen, nannte PrimeSense noch nicht, man stehe jedoch in Verhandlungen. Bald könnte also jedes Handy als 3D-Scanner fungieren, mit denen der Regienachwuchs seine eigenen 3D-Filme und Spielszenen einfangen kann.

Mobiler 3D-Scanner PrimeSense hat seinen Sensor so weit verkleinert, dass man die Umgebung mit einem Tablet dreidimensional erfassen und verfremden kann. (Quelle: Hartmut Gieselmann)

(hag)