Menü

Fliegenauge: 3D-Digitalkamera mit 12.616 "Objektiven"

vorlesen Drucken Kommentare lesen 67 Beiträge

Testaufbau des Multi-Linsen-Kamerasensors (unten Mitte) und der zugehörigen Auswerte-Elektronik mit FPGA und USB-Anschluss

Forscher der schon durch das Make3D-Projekt bekannten Stanford-Universität in Kalifornien arbeiten an einer neuartigen 3D-Kamera, die die räumliche Tiefe eines Motivs mittels mehrerer tausend winziger Einzel-Linsen aufzeichnen kann. Die Forscher fertigten einen speziellen Bildsensor-Chip, dessen 3 Millionen Pixel in Quadrate von 16 × 16 gruppiert wurden; jede Gruppe ist mit einer eigenen Mini-Linse ausgestattet, wobei das Bild über ein Haupt-Objektiv auf die Linsengruppen projiziert wird.

Die einzelnen Pixel sind hierbei nur noch 0,7 µm groß (zum Vergleich: aktuelle Kompaktkameras arbeiten mit etwa 3 µm großen Pixeln). Durch leichte Fehlfokussierung oberhalb der Sensor-Ebene erreicht man, dass jede der "Subkameras" das Bild aus einer leicht unterschiedlichen Perspektive sieht. Ein komplizierter Algorithmus errechnet aus den Rohdaten dann die räumlich Information.

Im Gegensatz zu Stereo-Fotografie ist die Tiefeninformation beim neuen Konzept von der Orientierung der Betrachtung unabhängig, außerdem liefert sie ganz erstaunliche Daten: So ist es angeblich möglich, den Bildinhalt nur eines ganz bestimmten räumlichen Abstands zu extrahieren und anzuzeigen – etwa nur die Objekte, die sich in 70 cm Abstand zur Kamera befinden. Ein 3D-Scan, bislang nur durch aufwendige Laser-Vermessung oder Rundum-Fotoserien zu bewerkstelligen, wäre mit einer einzigen Aufnahme machbar.

Die Forscher um Professor Abbas El Gamal, der das Projekt leitet, könnten sich vorstellen, das der Sensor das räumliche Sehen in der Robotik stark vereinfachen könnte, auch die Makro-Fotografie könnte der neue Bildsensor revolutionieren – bei sehr nahen Objekten lässt man die Hauptlinse einfach weg. (cm)