Kopieren in 3D

Räumlich scannen mit Digitalkamera, Kinect oder Laser-Scanner

Praxis & Tipps | Praxis

Statt sich mit 3D-Grafiksoftware abzumühen, um einen Gegenstand nachzumodellieren, greift man zur Digitalkamera und schießt von allen Seiten ein paar Fotos. Eine Software berechnet daraus ein vollständiges räumliches Abbild. Das klingt zu schön, um wahr zu sein, klappt aber tatsächlich. Alternativ tut’s auch ein Linien-Laser aus dem Baumarkt nebst Webcam oder man funktioniert Microsofts Kinect-Kamera in einen 3D-Scanner um, mit dem man im Handumdrehen Gegenstände digital kopiert.

Nicht nur Star-Trek-Fans werden sich schon mal einen eigenen Replikator gewünscht haben – ein Gerät, das die atomare Struktur zahlreicher Gegenstände gespeichert hat und auf Zuruf in Sekundenbruch teilen fast perfekte Nachbildungen produziert. Ob man tatsächlich jemals die chemischen Eigenschaften und den inneren Aufbau eines Gegenstands speichern können wird, um wie bei John Luc Piccards Bestellung eines „Earl Grey, heiß!“ die Tasse samt Tee quasi aus dem Nichts entstehen zu lassen, bleibt abzuwarten.

Doch immerhin kann man inzwischen schon mit günstigen Hilfsmitteln die äußere Form von Gegenständen dreidimensional erfassen und Kopien davon ausdrucken – wahlweise mit Hilfe eines Webdienstes [1] oder einem eigenen Rapid Prototyping Printer. Im Artikel auf Seite 92 stellen wir sieben solcher Maschinen ab 800 Euro im Detail vor. Anders als herkömmliche Drucker kann man solche Geräte nicht mit Texten oder Grafiken füttern. Die 3D-Drucker verlangen nach Polygonmodellen der dreidimensionalen Objekte. Doch woher nimmt man die? Glücklicherweise gibt es zahlreiche Ansätze, um vorhandene Gegenstände dreidimensional zu erfassen, die auch Heimanwendern zugänglich sind. Die 3D-Scans muss man anschließend nur noch ein wenig „säubern“, um sie druckreif zu machen.

Im Folgenden stellen wir vier 3D-Scan-Verfahren vor, die auch für den Hausgebrauch taugen: die „Photogrammetrie“, das „Lichtschnittverfahren“, „kodiertes Licht“ und „Structured Light“. Für die Photogrammetrie reicht eine x-beliebige Digitalkamera oder ein Smartphone. Damit umkreist man das Objekt der Begierde und schießt Fotos aus allen Perspektiven. Diese lädt man bei einem Webdienst wie 123D Catch von Autodesk oder My3DScanner.com hoch, nachdem man dort ein Benutzerkonto angelegt hat. Bei 123D Catch läuft der Upload und die Anzeige des Ergebnisses über einen Windows-Client; Versionen für iPad und ein Web-Interface sollen folgen. My3DScanner erwartet in Zip-Archive verpackte Bilderserien und liefert auch die Ergebnisse gezippt zurück. Beide Dienste waren bei Redaktionsschluss noch kostenlos, zumindest bei Autodesk stehen jedoch Änderungen ins Haus, die zu einem kostenpflichtigen Service führen könnten.

Die Dienste analysieren die Bilder und erzeugen ein räumliches Abbild der Szene. Dazu wird auf den Bildern nach charakteristischen Strukturen gesucht („Features“), beispielsweise nach scharfen Kanten wie an Hausecken oder nach Hell-Dunkel-Mustern, wie sie die Felgen eines Autos zeigen. Solche markanten Punkte müssen jeweils auf vielen Fotos wiederzuentdecken sein, damit die Software abschätzen kann, wo sie im Raum liegen. Bei erfolgreicher „Feature Extraction“ ergeben sich daraus Koordinaten und somit Hypothesen über die Orte, von denen die Fotos geschossen wurden. Dabei greift die Software auch auf EXIF-Daten wie die Brennweite der Kamera zurück.

Punktwolken

Im Idealfall passen alle hypothetischen Koordinaten in eine schlüssige räumliche Struktur, sodass jeder markante Punkt seinen Platz in der Szene findet. Das Verfahren gehört zum klassischen Fundus der Bildverarbeitung und nennt sich „structure from motion“, da es der Art ähnelt, wie Menschen Objekte dreidimensional wahrnehmen, wenn sie sich durch den Raum bewegen. Die Methode nutzen beispielsweise der kostenfreie Voodoo Camera Tracker (siehe c’t-Link), aber auch Microsoft für seinen Bilderbetrachter Photosynth [2]. Wie Photosynth erzeugt auch My3DScanner zunächst eine grobe Punktwolke, verfeinert diese dann und webt zwischen den Punkten ein Oberflächennetz. Wenn das 3D-Objekt fertig berechnet ist, bekommt der Nutzer eine Mail – bei unseren Versuchen dauerte das durchaus schon mal einen Tag. My3DScanner stellt das Ergebnis als farbige Punktwolke im Dateiformat PLY und als einfarbiges OBJ-Polygonmodell zur Verfügung. Fotos, die er nirgendwo einordnen kann, lässt der Algorithmus von My3DScanner links liegen.

123D Catch hingegen markiert solche Bilder mit einem Warnschildchen – wenn man will, kann man sie nachträglich manuell ins Modell einstricken, indem man selbst nach markanten Anknüpfungspunkten sucht und die in mehreren Bildern anklickt. Der 123D-Catch-Client stellt das berechnete Objekt sowie die ermittelten Kamerapositionen direkt in 3D dar. Exportieren kann man das Modell unter anderem als OBJ-Datei, die mit Texturen aus den Fotos belegt ist.

Bei guten Aufnahmebedingungen funktionieren beide Dienste prima und lassen nur selten Bilder unter den Tisch fallen. Bei unseren Experimenten lieferte 123D Catch insgesamt feinere Oberflächen und fügte seltener Artefakte ein, kapitulierte bei stark komprimierten und niedrig aufgelösten Fotos aber früher als My3DScanner.

Ideal fürs 3D-Scannen mit der Kamera sind Außenaufnahmen bei bewölktem Himmel. Direktes Sonnenlicht oder Gegenlicht überfordern das Verfahren meistens, auch mit glänzenden oder gar spiegelnden Oberflächen funktioniert es nicht. Damit Sie die notwendigen markanten Punkte auf genügend Bildern ablichten, umkreisen Sie Ihr Objekt im Seitwärtsgang und machen dabei laufend Fotos, sodass Sie in etwa 30 Bildern einmal rum sind. Wenn möglich, umkreisen Sie den Gegenstand noch einmal mit leichter Aufsicht und einmal aus der Froschperspektive. In der Praxis dauert es nur wenige (allerdings konzentrierte) Minuten, bis man die 30 bis 100 Bilder im Kasten hat, die für ein vollplastisches Modell nötig sind.

Wer nicht so oft auf den Auslöser drücken will, kann auch einfach einen hochaufgelösten Videoclip aufnehmen und anschließend eine Bilderserie exportieren, etwa mit dem für Windows, Mac OS X und Linux verfügbaren Avidemux („Speichere Auswahl als JPG-Bilderserie“). Aus der Serie pickt man dann die gewünschten Bilder heraus. Bequemer erledigt das die skriptbasierte Videobearbeitung AviSynth (2.6.0 Alpha, ffvideosource-Plug-in nach AviSynth\plugins kopieren, Downloads siehe c’t-Link):

ffvideosource("video").ConvertToRGB24()
selectevery(20,0)
ImageWriter(file = "video%06d.jpg", type = "jpg")

Lässt man die als .avs gespeicherten Zeilen beispielsweise in VirtualDub oder im „Media Player Classic – Homecinema“ laufen, landet (in diesem Beispiel) jedes 20. Bild in einer durchnummerierten Bilderserie auf der Platte.

Das im fertigen 3D-Modell vorhandene unvermeidliche Drumherum der Szenerie stört zwar, der Analyse-Software hilft es allerdings, Informationen zur räumlichen Situation zu sammeln. Anders als bei den anderen Verfahren sind neutrale Hintergründe wie weiße Wände ungünstig; bei kleinen Gegenständen, die wir auf einem einfarbigen Tisch liegend fotografierten, erzielten wir in unseren Versuchen bessere Ergebnisse, wenn wir zuerst eine Zeitung als Unterlage ausbreiteten. Allerdings ist wichtig, dass möglichst keine den Algorithmus verwirrenden Objekte auf einem Bild vorhanden und auf dem nächsten verschwunden sind – eine Brunnenfigur am Samstagnachmittag in der Fußgängerzone aufzunehmen, ist keine gute Idee. Wenn Sie – wie wir für unser Titelbild – eine Person in 3D abbilden wollen, muss Ihr Modell während der Fotosession möglichst stillhalten, sollte mit den Augen einen festen Punkt in der Ferne fixieren und nur zwischen den Aufnahmen blinzeln.

Lichtschneider

Das im semiprofessionellen und auch im Heimbereich praktikable Streifenprojektionsverfahren kommt ohne Webdienst aus, erfordert jedoch Zusatz-Hardware. Im einfachsten Fall wird eine schmale helle Lichtlinie auf die Oberfläche eines Objekts projiziert. Üblicherweise verwendet man für diese auch Lichtschnittverfahren genannte Projektionstechnik einen Linien-Laser, um den Gegenstand scheibenweise mit einer seitlich platzierten Kamera aufzunehmen. Wenn die Winkel zwischen Projektor, Objekt und Kamera bekannt sind, lässt sich aus den Verzerrungen der Aufnahmen die Tiefe für jeden Punkt auf der Linie triangulieren (siehe Bild unten).

Um das vollständige Tiefenbild der sichtbaren Oberfläche zu erhalten, muss man die Lichtlinie über die gesamte Oberfläche schwenken. Im einfachsten und preisgünstigen Fall macht man das manuell. Einen Linien-Laser bekommt man bei David 3D Solutions ab 14 Euro (zzgl. Versand), mit der Software David-Laserscanner Free Edition (siehe c’t-Link) und selbst ausgedruckten Kalibrierhilfen kann man erste Experimente machen. Die Firma bietet auch ein „Starter-Kit“ inklusive Linien-Laser, 2-Megapixel-Webcam (Logitech Quickcam 9000 Pro), Grundplatte, Kalibrierflächen und der Vollversion David-Laserscanner Pro Edition 3 für 400 Euro an; einzeln gibt es die Pro-Version der Software für 330 Euro.

Die Windows-Software zeigt zur Laufzeit das bereits erfasste und berechnete Modell an, was durchaus dabei hilft, die Oberfläche gleichmäßig zu scannen (siehe Video). Prinzipiell kann die Software auch den Schwenkvorgang automatisieren, wenn man einen Motorantrieb nebst passender Steuerelektronik nachrüstet. Vor dem Scan muss man das System kalibrieren, unter anderem, um die Winkel zum Objekt zu ermitteln. Dabei hilft beim David-Laserscanner eine Art Bühne, auf der Punkte und Kreise aufgezeichnet sind – die bereits erwähnten Kalibrierflächen. Die Kamera nimmt das Bild auf, aus der die Software alle erforderlichen Parameter selbst berechnet. Anschließend platziert man das zu scannende Objekt vor dieser Bühne.

Da sich mit dem Laser und der Kamera immer nur ein Modell der Ansicht erzeugen lässt, muss man für ein vollständiges Modell das Objekt von allen Seiten scannen und die Scans anschließend per Software zusammensetzen. Letzteres erweist sich als schwierigster Schritt auf dem Weg zum 3D-Modell. Man muss Punkte der Scans finden, an denen sie sich überlappen, und dem Programm diese vorgeben. Was sich einfach anhört, ist in der Praxis jedoch nervig und führt erst mit viel Übung zu brauchbaren Ergebnissen. Beim David-Laserscanner lässt sich das fertige Modell in den gängigen 3D-Formaten OBJ, PLY und STL speichern. Andere Lösungen schwenken nicht den Laser, sondern drehen das auf einem motorisierten Drehteller gestellte Objekt in Winkelschritten und berechnen für jeden Winkel das Tiefenbild. Daraus lässt sich das Modell später in einem Rutsch rekonstruieren.

Das Lichtschnittverfahren reagiert empfindlich auf zu viel Umgebungslicht, weil die Kamera dann die Laser-Linie mitunter nur schwer erkennen kann. Unsere Experimente gelangen bei einem abgedunkelten Raum am besten. Probleme hat das Laserschnittverfahren auch beim Scannen sehr dunkler Objekte, weil ihre Oberfläche die dünne Laserlinie zu schwach reflektiert – die Kamera sieht nichts. In diesem Fall hilft es, das Objekt mit einer abwaschbaren Farbe weiß anzumalen. Die Genauigkeit des Verfahrens hängt von der Dicke des Laserstrahls ab: je dünner, desto feiner das spätere Ergebnis.

Eine Variante des Streifenprojektionsverfahrens heißt „kodiertes Licht“ (Coded Light, auch Structured Light genannt). Jeder Punkt auf der Oberfläche eines Objekts entspricht in der beobachtenden Kamera einer Bildkoordinate. Ein Beamer wirft nun nacheinander verschiedene Hell-Dunkel-Streifenmuster auf das Objekt. Die Kamera nimmt für jedes Muster auf, ob der beobachtete Punkt im Hellen oder im Dunkeln liegt: Hell ist eine 1, dunkel eine 0. In der zeitlichen Abfolge des Musters ist die Nummer jedes Projektorstreifens im fehlertoleranten Gray-Code kodiert. Die Nummer des Streifens entspricht einer gedachten Koordinate im Beamer. Damit hat man die Bild- und die Beamer-Koordinaten und kann erstaunlich einfach die (nicht skalierte) Tiefe jedes Punktes berechnen, wie in Abbildung auf Seite 88 oben zu sehen. Für ein vollständiges Modell muss man ebenfalls Scans von mehreren Seiten anfertigen und die Scans anschließend zusammensetzen.

Vorteile des „Coded Light“-Ansatzes gegenüber dem Lichtschnittverfahren liegen in der einfacheren Handhabung und der höheren Scan-Geschwindigkeit. Dafür lassen sich kleine Objekte damit nicht gut erfassen, Fremdlicht stört noch mehr als beim Laser-Scanning und der Beamer treibt den Einstiegspreis in die Höhe. Ein Starter-Kit inklusive Industrie-Kamera, ein Acer-LED-Beamer (K11) mit modifizierter Optik, Stativen, Kalibrierflächen und der Software David-Laserscanner Pro Edition 3 kostet knapp 1800 Euro.

Kinect kinetisch

Einen ganz anderen Weg verfolgt Microsofts ursprünglich für die Bewegungssteuerung der Xbox 360 entwickelte Kinect-Kamera bei der Tiefenmessung. Sie zeichnet mit einem Infrarot-Laser zahlreiche helle und dunkle Punkte, sogenannte Speckles. Mehrere Punkte sind jeweils zu einem Muster gruppiert. Durch den Vergleich eines gespeicherten Referenzmusters mit dem auf der Oberfläche einer Szene aufgenommenen Muster lässt sich das Tiefenbild berechnen. Da der Laser sehr schnell arbeitet, kann er sämtliche Punkte quasi in einem Zug projizieren.

Im Unterschied zu den Streifenprojektionsverfahren kommt die Kinect deshalb auch mit einer einzigen Aufnahme ihrer Infrarotkamera aus, um die räumliche Tiefe aller Punkte eines Bildes zu berechnen. Das funktioniert erstaunlich gut, weshalb die mit rund 100 Euro im Vergleich zu anderen Lösungen geradezu lächerlich billige Kinect-Kamera inzwischen gerne für die Objekterfassung in der Robotik und als 3D-Scanner eingesetzt wird. In den meisten Haushalten mit Xbox 360 dürfte die Kamera, die sich mit dem Titel der erfolgreichsten Einführung eines Unterhaltungsgerätes schmücken darf, schon vorhanden sein: Microsoft setzte alleine in den ersten fünf Monaten 10 Millionen Stück ab. Inzwischen gibt es eine Kinect for Windows – sie unterscheidet sich von der Xbox-Version im Wesentlichen durch einen deutlich höheren Preis, der aber auch die Lizenz enthält, mit Hilfe eines SDK kommerzielle Anwendungen zu entwickeln.

Als Erstes hat Microsoft selbst die Kinect als 3D-Scanner eingesetzt: Das Forschungsprojekt KinectFusion baut Tiefenbilder aus verschiedenen Perspektiven in Echtzeit zu einem volumetrischen Abbild zusammen [3]. Dabei lässt sich die Kinect sogar mit der Hand um ein Objekt oder eine Szenerie herumführen. Jedes hinzukommende Einzelbild verfeinert die bereits vorhandenen Modelldaten, sodass die Auflösung des Modells erhöht wird und auch Details sichtbar werden. Für das richtige Zusammensetzen und Überlagern der Kinect-Bilder lehnt sich KinectFusion an das aus der Robotik bekannte Synchronous Localization and Mapping (SLAM) an. Mit SLAM ermitteln Roboter ständig ihre aktuelle Position und aktualisieren gleichzeitig ihre Kartendaten. Während das bei Robotern nur Rechenarbeit in zwei Dimensionen erfordert, ist das für 3D-Daten erheblich aufwendiger. Für die Berechnungen bemüht die Software deshalb die GPUs moderner Grafikkarten. Außerdem ist KinectFusion recht speicherhungrig: Laut Microsoft beansprucht der Scan in einem gedachten Würfel mit 512 Pixel Kantenlänge bei 32 Bit pro Voxel 512 MByte Speicher. Verdoppelt man die Kantenlänge, verachtfacht sich der Speicherbedarf.

Noch ist kein Produkt aus KinectFusion geworden. Es gibt aber eine davon inspirierte Open-Source-Implementierung im SVN-Repository des Point-Cloud-Library-Projekts (PCL, siehe c’t-Link). Diese setzt auf der CUDA-Bibliothek zum GPU-Computing von Nvidia auf, um den Hauptteil der laufenden Verfeinerung des 3D-Modells beim Scannen auf der Grafikkarte zu berechnen.

Rekonstrukteur

Man muss aber nicht zum Compiler greifen: Die für den nichtkommerziellen Gebrauch kostenlose Windows-Software ReconstructMe der österreichischen Firma Profactor leistet ganz Ähnliches wie KinectFusion und unterstützt beide Kinect-Kameras (for Xbox, for Windows) sowie Asus’ Xtion Pro Live (RGB und Tiefeninformation) und Asus Xtion Pro (nur Tiefeninformation). Für eine Echtzeitvorschau ist man allerdings auch hier auf die GPU-gestützte Berechnung angewiesen. ReconstructMe setzt dazu auf die Open Computing Language (OpenCL), sodass es mit Grafikchips von Nvidia, AMD/ATI und Intel zusammenarbeitet; eine Liste erfolgreich getesteter Grafikchips gibt es unter dem c’t-Link.

Video: 3D-Büste
Video: David-Laserscanner

Der Tiefensensor erfasst dabei lediglich Objekte, die sich innerhalb eines in der Konfigurationsdatei definierten gedachten Quaders befinden, dessen vorderer Rand 40 Zentimeter von der Linse entfernt liegt. Mit einem schnellen Rechner erhielten wir in Tests auf Anhieb beeindruckend genaue Modelle im STL-Format (siehe Video unter dem c’t-Link).

Video: 3D-Scan mit ReconstructMe und Kinect

Falls der Rechner beim Echtzeit-Scan aus dem Tritt kommt oder gar nicht dazu in der Lage ist, kann man sich mit dem Offline-Modus von ReconstructMe behelfen. Damit zeichnet man ein Objekt zunächst in einem Schwenk auf und berechnet das Modell anschließend aus den Einzelbildern. Probleme hatte die Kinect mit direkter Lichteinstrahlung in der Nähe des Objekts. Scan-Abbrüche und Löcher in der Oberfläche waren die Folge. Ein weiterer Nachteil ist, dass sich mit der Kinect nur relativ große Objekte gut erfassen lassen, da man einen Mindestabstand einhalten muss. Für kleinere Objekte und deren Texturen ist sie ungeeignet. Ein Versuch mit der Kinect für Windows, die einen geringeren Mindestabstand benötigt, lieferte allerdings noch schlechtere Ergebnisse als die Kinect für die Xbox 360.

Bei Redaktionsschluss war ReconstructMe 0.4.0-287 aktuell. Damit kann man über eine Konfigurationsdatei die Auflösung in den drei Raumachsen getrennt voneinander vorgeben. So lässt sich beispielsweise für eine feinere Tiefenauflösung in Blickrichtung der Kamera sorgen, wenn man ein Relief scannen will. Wir haben dies im Test benutzt, um ein Gesicht in höherer Auflösung einzufangen, das wir anschließend auf einen gröber aufgelösten Rundum-Scan derselben Person pflanzten. Da ReconstructMe die originalen Maße des gescannten Objekts reproduziert, passen solche 3D-Modelle gut aufeinander. Wer die Software mit der Xbox-Kinect betreiben will, muss den OpenNI-Treiber installieren; die Kinect for Windows benötigt hingegen die Original-Runtime von Microsoft. Nach dem Start von der Kommandozeile zeigt die Anwendung nebeneinander das Live-Bild des RGB-Sensors der Kinect und den aktuellen Zustand der Rekonstruktion. Die Farbinformationen der Kamera werden allerdings nicht im 3D-Modell festgehalten, das als STL, OBJ oder 3DS gespeicherte Ergebnis ist immer einfarbig.

Die indischen Entwickler von Matherix Labs machen das anders: Ihre Software 3Dify belegt die per Kinect gescannten 3D-Modelle mit Texturen, die der RGB-Sensor aufnimmt. Allerdings funktioniert das nicht in Echtzeit, sondern in mehreren Schritten und nur bei Mitarbeit des Nutzers. Er muss beispielsweise Bilder aussortieren, auf denen das Objekt nur unvollständig zu sehen ist, weil die Kinect zu nah herangeführt wurde, oder Artefakte markieren. 3Dify kann man zurzeit nur nach Aufnahme ins geschlossene Beta-Programm testen; wie ein Scan damit abläuft, zeigt aber ein Video auf der Webseite. An Scan-Anwendungen für die Kinect arbeiten noch weitere Firmen, darunter Geomagic. Der Spezialist für 3D-Modelliersoftware und Reverse-Engineering-Anwendungen soll den 3D-Drucker-Hersteller 3DSystems mit der passenden Software versorgen, damit dessen Kunden der Endverbraucher-Plattform namens Cubify Gegenstände per Kinect scannen und gleich auf dem eigenen 3D-Drucker replizieren können [4].

Virtuelle Bildhauer

Die Software hat natürlich keine Vorstellung davon, welche Dinge der Szenerie man in 3D umgesetzt haben will und welche sich nur zufällig im Bild befinden. Das macht nichts, denn die unerwünschte Umgebung lässt sich zügig mit dem kostenlosen Werkzeug Meshlab entfernen (siehe c’t-Link).

Saubere Schnitte für gerade Modellkanten führt man mit der Gratis-Ausgabe von netfabb Studio. Die Anwendung bietet auch einfache Reparaturfunktionen, mit denen sich beispielsweise Löcher schließen und leere 3D-Hüllen in Volumenkörper verwandeln lassen. Unter dem c’t-Link finden Sie ein (englischsprachiges) Video, das die generellen Bearbeitungsschritte zeigt. Einen Praxisartikel, der Ausbesserungsmaßnahmen bei problematischen Scans beschreibt, liefern wir in einem der folgenden Hefte.

Fazit

Die beschriebenen Verfahren und Werkzeuge haben ihre eigenen Vorzüge, aber auch Nachteile. So reagieren alle allergisch auf Reflexionen und transparente Materialien: Brillen sind futsch; glänzende Ketten oder Ohrringe fressen Löcher in die 3D-Modelle – solche Problemzonen muss man manuell nachbearbeiten. Der David-Laserscanner ist vor allem für Anwender gedacht, die kleine Gegenstände erfassen wollen. Anders als bei der Photogrammetrie und ReconstructMe kommt man auf die Schnelle jedoch nicht zu brauchbaren Ergebnissen. Dafür ist viel Übung erforderlich. Davids Structured Light Scanner vereinfacht den Scan-Vorgang, wer allerdings keinen geeigneten Beamer hat, wird ihn nur fürs 3D-Scannen kaum anschaffen wollen.

Lichtschnitt- und Stuctured-Light-Verfahren erfassen grundsätzlich keine Farben, sondern nur die reine Form der Objekte, sodass man keine fotorealistisch texturierten Objekte bekommt. Bei der Kinect sieht es dank des zusätzlichen RGB-Sensors prinzipiell anders aus, auch wenn ReconstructMe bisher keine Texturen auf die Modelle legt. Dafür erzeugt es recht fein aufgelöste Modelle mit realen Abmessungen. Hat der Rechner eine geeignete Grafikkarte, kann man direkt beim Scannen erkennen, ob alle gewünschten Teile erfasst wurden. Allerdings lässt sich die Kinect durch direktes Licht verwirren und man braucht zu ihrem Betrieb Netzspannung oder einen 12-V-Autoadapter, was Außeneinsätze erschwert; Asus’ Xtion Pro Live begnügt sich hingegen mit einem USB-Anschluss, kostet mit 180 Euro aber auch mehr als die Kinect. Kleine Gegenstände erfasst das Punktraster der Kinect nur grob, zudem fehlen bisher – anders als bei 3Dify – Farbinformationen. Braucht man mit realistischen Texturen überzogene 3D-Modelle, ist 123D Catch die bessere Wahl. Da man nur eine Kamera oder ein Handy dabei haben muss, kann man auch spontan Objekte dreidimensional erfassen. Allerdings erzeugt 123D Catch die Modelle in Fantasiemaßen, außerdem hat man keine Kontrolle darüber, ob die Software später mit den Fotos zurechtkommen wird.

Demnächst dürfte es erste Apps der Photogrammetrie-Dienste geben, die direkt Aufnahmen vom Smartphone oder Tablet in die Cloud hochladen und die fertigen Modelle zumindest als Vorschau anzeigen. Allerdings müssen die Dienste ihre 3D-Modelle binnen Minuten zurückliefern, damit man einen fehlgeschlagenen Scan vor Ort wiederholen kann. Mit höher auflösenden Kinect-Nachfolgern und -Konkurrenten wird man detaillierte 3D-Scans anfertigen und mit Texturen belegt ein fotorealistisches virtuelles Selbst erzeugen können. Eine solche Figur lässt sich animieren – eine interessante Option für Spiele. Das Laser-Scanning und die eingesetzten Structered-Light-Verfahren werden beim 3D-Scannen für den privaten Gebrauch künftige keine Rolle mehr spielen. (vza)

Literatur
  1. [1] Peter König, Achim Barczok, Ideen materialisieren, Webdienste fertigen Objekte nach Ihren 3D-Entwürfen, c’t 15/11, S. 84
  2. [2] André Kramer, Im Gigapixel-Rausch, Neue Wege, mit großen Bilddaten umzugehen, c’t 12/08, S. 162
  3. [3] Hartmut Gieselmann, Der Maschinenlehrer, 20 Jahre Microsoft Research – ein Besuch in Cambridge, c’t 22/11, S. 50.
  4. [4] Peter König, Sachen machen, Drucken in 3D, c’t 6/12, S. 134

Artikel kostenlos herunterladen

weiterführende Links

Anzeige