Mehrdimensionales

Grafik und Interaktion auf der Siggraph 2012 in Los Angeles

Trends & News | News

Wissenschaftliche Konferenz, Messe, Kunstausstellung und Filmfestival sowie Weiterbildung für Praktiker: Das alljährliche Computergrafik-Spektakel hat wieder alle Facetten von 2D, 3D und Mensch-Maschine-Schnittstellenpräsentiert. Zwar blieben große Überraschungen aus, aber dafür war viel Hilfreiches, Tiefschürfendes, Witziges zu sehen – und ein 20-jähriges Jubiläum zu feiern.

Maxon hatte schon vor der Siggraph die Version 14 seiner Modellierungs-, Animations- und Rendering-Software Cinema 4D angekündigt (siehe c’t 18/12, S. 3). Platzhirsch Autodesk beließ es bei kleineren „2013 Extensions“ für Maya und 3ds Max. Auch Newtek machte nur einen halben Versionssprung auf LightWave 11.5. Zu den Neuerungen gehören unter anderem eine Schwarmsimulation sowie neue Editierfunktionen wie „Heat Shrink“.

Interessanteres war in 2D zu sehen: SmithMicro zeigte MotionArtist. Mit diesem Werkzeug lassen sich in anderer Software vorbereitete Figuren, Fotos und ähnliche Vorlagen Comic-ähnlich in Bewegung bringen. Objekte lassen sich mit wenig Aufwand animieren, in Comic-Panels setzen und mit Sprechblasen versehen. Über diese Panels schwenkt eine virtuelle Kamera; das Ergebnis wird als Filmdatei oder als klickbares HTML5 ausgegeben. Derzeit ist eine kostenlose Betaversion verfügbar; der Straßenpreis des Vollprodukts soll 50 US-Dollar betragen.

Nach langem Betastadium ist die außergewöhnliche Bildbearbeitung „Lightbrush“ von Tangent Vision endlich fertig. Die zunächst nur für Mac OS verfügbare Software kann in Bildern durch Analyse der Farbähnlichkeiten die Körperfarben sowie Licht und Schatten trennen. Demos zeigten, wie sich damit Schatten bearbeiten und aufhellen lassen. Die Technik soll auch bei der automatischen Erkennung von Bildinhalten helfen. Die Software kostet 2500 US-Dollar; im Laufe des Jahres sollen Plug-in-Varianten sowie eine Windows-Version folgen.

20 Jahre OpenGL

Auf dem alljährlichen „Birds-of-a-Feather“-Treffen zu OpenGL wurde in diesem Jahr das zwanzigjährige Jubiläum der Grafik-Programmierschnittstelle gefeiert. („Birds-of-a-Feather“ bezeichnet ein Treffen gleichgesonnener Experten.) Zum Jubiläum erschien OpenGL 4.3, das zu DirectX 11.1 aufschließen soll. Die neue Version umfasst Compute Shader, um Rechnungen mit Vertizes oder Pixeln auf den Grafikchip auszulagern. Die Funktion ergänzt die vielseitigen, aber auch aufwendiger zu benutzenden Möglichkeiten der Schwester-Schnittstelle OpenCL. Außerdem informiert die neue Version von OpenGL mit spezifischeren Debug-Informationen darüber, was wo passiert ist.

OpenGL ES für Smartphones, Konsolen und verwandte Geräte ist endlich in der Version 3.0 verfügbar – Version 2.0 erschien vor über fünf Jahren. OpenGL ES wurde mit vielen Funktionen des großen Bruders OpenGL 3.3 und 4.x ausgestattet, soll aber dennoch abwärtskompatibel zu seinem Vorgänger sein. Die neue Revision des Standards bügelt viele Unklarheiten und Eigenwilligkeiten aus. So wird jetzt etwa die vorzeichenbehaftete Ganzzahl Null bei der Typwandlung auch tatsächlich zu einer Gleitkomma-Null.

Mit „Adaptive Scalable Texture Compression“ (ASTC) erhalten OpenGL und OpenGL ES ein lizenzgebührfreies Texturformat, das von acht Bits bis hinunter zu weniger als einem Bit pro Pixel skalierbar ist. ASTC teilt das Bild in 128 Bit große Blöcke mit einer variablen Zahl von Pixeln auf. Jeder Block enthält zwei Grundfarben, zwischen denen Mischungen für die einzelnen Pixel mit mehr oder minder hoher Präzision angegeben werden.

Bauen im Web

Die Programmierung mit WebGL, der JavaScript-Variante von OpenGL ES, ist mittlerweile so weit gereift, dass sich sehr umfangreiche 3D-Editoren im Browser umsetzen lassen. Exocortex „Studio“ und TeamUp zeigten Vorschau-Versionen solcher Editoren; TeamUp greift zum Rendern auf die Cloud zurück.

OpenCL soll in anderthalb Jahren einen JavaScript-Ableger WebCL bekommen. Die OpenGL-Schwester widmet sich dem parallelen Rechnen auf Grafikchip und/oder normalem (Multicore-) Prozessor. Im September oder Oktober sollen zwei vorläufige WebCL-Spezifikationen erscheinen: Die erste definiert ein „High Level Model“, das den parallelisierten Code besser mit dem normalen Code verbindet. Über „Standard Parallel Intermediate Representation“ sollen sich zwischenkompilierte Kernels sicher austauschen und aus alternativen Sprachen erzeugen lassen.

Zur Vereinfachung der Initialisierung und zum Kompilieren des Codes der parallelen „Kernels“ gibt es nun in der Tradition des GLUT von OpenGL für OpenCL das Computing Language Utility (CLU).

Motion Capture für alle

Beim „Birds-of-a-Feather“-Treffen zu Microsofts 3D-Kamera Kinect gab es nur noch Stehplätze vor den Türen. iPi Soft zeigte skelettbasiertes Motion Capture mit zwei Kinects, die einander nicht stören, weil sie gegenüber zueinander aufgestellt sind. Styku verwendet in seinen Kiosken zur virtuellen Kleideranprobe sogar vier Kinects. Auf die Frage, wieso sich diese nicht gegenseitig stören, bekam man als Antwort nur „Timing“.

Faceshift, ein Programm aus dem Dunstkreis der École Polytechnique Fédérale de Lausanne, nutzt die Kinect zur Erkennung von Gesichtsausdrücken. Die Software erkennt in Echtzeit Kopfhaltung, Pupillen, Augenbrauen, Mundform und Unterkiefer. Die groben Daten werden anhand eines anpassbaren Gesichtsmodells interpretiert und auf Polygonmodelle übertragen.

Am Puls der Grafik

Die Technical Papers stellen jedes Jahr den akademischen Kern der Siggraph. Zwar sammeln die Veranstalter sie nicht zur freien Verfügung im Web, die Autoren dürfen ihre Arbeiten jedoch selbst ins Netz stellen. Ke-Sen Huang hat sich auch in diesem Jahr wieder darum gekümmert, die Links zusammenzutragen (siehe c’t-Link).

Dass relativ simple Verfahren große Effekte haben können, beweisen Hao-Yu Wu und seine Kollegen vom MIT. Ihr Verfahren verstärkt Bewegungen so, dass das Blut im Gesicht von Batman alias Christian Bale sichtbar pulsiert und das Atmen eines still liegenden Babys deutlich hervortritt. Hierfür reicht es, niedrige räumliche Frequenzen eines bestimmten zeitlichen Frequenzbands zu verstärken. Bei nichtperiodischen Filmen führt die Methode allerdings zu heftigen Überschwingern.

Fundamental ist dagegen die Arbeit von Breannan Smith, Danny M. Kaufman und ihren Mitautoren. Sie haben als erste ganz genau hingesehen, wie starre Körper gleichzeitig miteinander kollidieren und dafür grundlegende Gesetzmäßigkeiten gefunden. Diese haben die Wissenschaftler dann implementiert und mit großen Systemen getestet.

Morten Bojsen-Hansen und seine Mitautoren nageln Pudding an die Wand: Ihr Verfahren texturiert flüssige und knetbare Materialien in Animationen allein anhand der Form der Oberfläche. Die Kunst liegt dabei darin, den Anschluss auch zu behalten, wenn Löcher aufreißen oder geschlossen werden.

Sunghyun Cho, Jue Wang und Seungyong Lee entfernen die durchs Kamerawackeln verursachte Unschärfe aus Videos. Statt der üblichen, mit Artefakten behafteten Deconvolution-Verfahren nutzen sie den Umstand, dass die Bilder „glücklicherweise“ nicht an allen Stellen verwackelt sind. So lassen sich die scharf erfassten Bildinformationen auf die unscharfen Stellen in benachbarten Bildern übertragen.

Carl Doersch und seine Kollegen haben einen Rechner automatisch anhand von Fotos herausfinden lassen, wie Paris sich bildlich von London und anderen Städten unterscheidet. Ihre Methode hilft zum Beispiel beim Auffinden verräterischer architektonischer Details.

In der Abteilung „Emerging Technologies“ arbeitete wie üblich die University of Electro-Communications aus Tokyo mit Hochspannung. Dieses Mal zeigten die Japaner einen Sessel, der dem Insassen passend zum Schrecken im Film die Härchen auf den Armen aufrichtet. Das haarsträubende Erlebnis spricht für die Theorie, dass man Emotionen mitunter erst an der Reaktion des eigenen Körpers erkennt.

Filmabend

Auf dem Computer Animation Festival liefen gleich vier Beiträge von Studenten der Filmakademie Baden-Württemberg. Zwei davon trugen Preise davon: „Globosome“ schildert eine Explosion von Lebensformen; „Herr Hoppe und der Atommüll“ zeigt drei Episoden aus dem Leben eines einfachen Menschen, der lediglich ein Fass radioaktiven Abfalls entsorgen will.

Ebenfalls aus dem Ländle, aber mit deutlich krasserer Bildersprache zeigt „Oh Sheep!“, wie man zwei Schafherden politisch auseinanderhält.

Darüber hinaus mehr als sehenswert: „How to Eat Your Apple“ zeigt fantasievoll den Verzehr eines Stücks Obst – hier trifft die Ästhetik von Salvador Dalí auf die bizarre Mechanik von Rube Goldberg. Der aus Frankreich stammende Western „Wanted Melody“ reduziert seine männlichen Darsteller auf, nun ja, das Wesentliche.

Wie in den Vorjahren verknüpften „Making Ofs“ die Technik mit der Kunst. Das 3D-Stereoskopie- und Visual-Effects-Team von „John Carter“ freute sich augenzwinkernd, durch die Siggraph-Vorträge hätte sich das Gesamtpublikum des Films glatt verdoppelt.

Mit etwa 21000 Besuchern erreichte die Siggraph 2012 fast wieder das Niveau der Siggraph 2010. Die Hallen fühlten sich allerdings merklich leerer an; auch war das WLAN überraschend stabil. Vielleicht ändern sich die Verhältnisse im kommenden Jahr, wenn das Computergrafik-Spektakel etwas nach Südosten zieht – nach Anaheim, direkt vors Haus der Maus. (ghi)

Artikel kostenlos herunterladen

weiterführende Links

Infos zum Artikel

Kapitel
  1. 20 Jahre OpenGL
  2. Bauen im Web
  3. Motion Capture für alle
  4. Am Puls der Grafik
  5. Filmabend
0Kommentare
Kommentieren
Kommentar verfassen
Anzeige
weiterführende Links
  1. Zu diesem Artikel hat die Redaktion noch folgendes zusammengestellt:

    Links (23)

Anzeige