Menü
c't Magazin

Hot Chips: Terminator trifft Robocop

vorlesen Drucken Kommentare lesen 13 Beiträge

Für die Firmen, die auf der 24. Hot-Chips-Konferenz im Silicon Valley über ihre Forschungsarbeit berichten, sind Touch-Displays Schnee von gestern. Ihnen geht es viel mehr um Algorithmen und Chips, mit denen man Geräte berührungslos steuern kann. So arbeitet beispielsweise EyeSight an einem System, das Gesten mit einer ganz normalen 2D-Kamera erkennt. Die Spannweite reicht dabei von Wischgesten mit der ganzen Hand bis zum Bewegen eines Mauszeigers mit der Fingerspitze. Selbst wenn sich der Hintergrund – etwa beim Laufen mit einem Mobiltelefon – ständig verändert, oder wenn mehrere Benutzer gleichzeitig im Sichtfeld der Kamera sind, soll EyeSight zuverlässig funktionieren.

Eine Abstraktionsschicht tiefer tüftelt Arcsoft an Verfahren, um Bilder von Kameras automatisch bereits im Bildprozessor aufzubereiten. Als wichtigsten Punkt sehen die Entwickler dabei den Burst-Mode, bei dem die Kamera in rascher Folger Einzelbilder mit voller Auflösung liefert. Aus diesen versuchen sie dann bessere Bilder zu montieren – etwa Gruppenfotos, bei denen keiner blinzelt.

Metaio beschäftigt sich indes mit der Überlagerung von Metainformationen und Kamerabildern, sprich Augmented Reality. Diese Technik kommt schon heute zum Einsatz, beispielsweise in einer Smartphone-App für den Ikea-Katalog 2013. Hält man die Kamera auf präparierte Seiten, erscheinen Zusatzinformationen im Display. Doch der ursprünglich aus Deutschland stammende Forschungsdirektor Ben Blachnitzky spricht mit leuchtenden Augen auch von Googles Datenbrille.

Ganz der Datenbeschaffung hat sich indes Sensor Platforms verschrieben und will mit "Sensor Fusion" zum einen möglichst viele Sensordaten miteinander verknüpfen und zum anderen den Programmierer von der Ansteuerung der Sensorhardware entbinden. Deutlich machte Jim Steele das am Beispiel der Höhenangabe, die ein barometrischer Drucksensor ermittelt. Betritt der Nutzer einen geschlossenen Raum, so ändert sich der Luftdruck, ohne dass das Gerät sich in Richtung der Z-Achse bewegt hat. Korrigieren kann man das mit Hilfe der Daten von Beschleunigungssensoren. Steele träumt aber zudem von hoch spezialisierten virtuellen Sensoren, die dem Programmierer etwa die Frage beantworten, ob der Anwender gerade in einem Fahrstuhl steht oder nicht.

In der abschließenden Diskussionsrunde formulierte Steele die These, dass Sensoren und damit letztlich die Geräte die Umgebung verstehen und sich dann dem Benutzer anpassen müssen. Am Ende dieses Prozesses solle nicht mehr der Mensch lernen, ein Gerät zu bedienen, sondern das Gerät herausfinden, was gerade gefragt ist. Dann müsste etwa die Stewardess niemanden mehr darauf hinweisen, alle Smartphones in den "Flight Mode" zu versetzen.

Bis auf Arcsoft, deren Verfahren mit einigen 100 MByte Speicher auskommen, herschte Einigkeit darüber, dass der primäre Engpaß derzeit nicht etwa schiere Rechenpower, sondern vor allem Arbeitsspeicher und Sensorik seien. Dan Wexler von The 11ers, der mit seiner Firma Kameradaten in Echtzeit mit Effektfiltern und anderen Algorithmen verziert, forderte eindringlich, Shared Memory auch bei SoCs der Software zugänglich zu machen. Nur so könne man effektiv Rechenarbeit zwischen CPU und GPU verteilen.

Zuvor hatte Neil Trevett – Präsidenten der Khronos Group – ausführlich über die Bemühungen bei Standards wie OpenCL, WebGL, WebCL, OpenMax und Co. berichtet. Er wies darauf hin, dass Microsoft für die ARM-Version von Windows derzeit einen Alleingang plant und eine Programmierung der GPU nur per DirectX erlaubt. Bisher gebe es noch nicht einmal WebGL-Unterstützung für HTML5 von Microsoft. Einig waren sich alle aber letztlich darüber, dass man heute oftmals schon mehr Strom für den Transport von Daten als für deren Bearbeitung aufwenden müsse und Strom respektive thermisches Budget derzeit der begrenzende Faktor sei. (bbe)