c't 17/2020
S. 134
Wissen
Time of Flight

Tiefenseher

So funktioniert die 3D-Erkennung per Time of Flight

3D-Sensoren stecken im Smartphone, im Auto und im autonomen Roboter. Sind Genauigkeit und Schnelligkeit gefordert, greifen ­Entwickler meist zu Time-of-Flight-­Kameras.

Von Ulrike Kuhlmann

Um Objekte, Gesichter oder potenzielle Hindernisse zu erkennen, benötigen Mobilgeräte, Fahrzeuge und Roboter ein dreidimensionales Abbild ihrer Umgebung. Solche Tiefenbilder lassen sich mit dem passiven Stereoverfahren erzeugen, das ähnlich wie das menschliche Sehen mit zwei Augen beziehungsweise Kameras funktioniert. Aktive Stereoverfahren projizieren ein Muster und werten entweder die Stereobilder mit zwei Kameras aus oder ermitteln Störungen des Musters durch Objekte im reflektierten Bild; hierfür benötigen sie nur eine Kamera, das kalibrierte Muster ersetzt die zweite. Dieses Prinzip steckt zum Beispiel hinter vielen RealSense-Sensoren von Intel. Beide Stereoverfahren ermitteln die Distanz zu einem Objekt per Triangulation. Bei Time of Flight (ToF) wertet man dagegen die Laufzeit der Lichtstrahlen aus, um Abstände zu errechnen.

ToF-Messprinzip

Das sinngemäß mit „Lichtlaufzeitverfahren“ übersetzte Time of Flight funktioniert bestechend einfach: Ein Infrarot-Laser- oder -LED-Lichtstrahl wird auf ein Objekt gerichtet, an dessen Oberfläche reflektiert und in einem dicht neben der Lichtquelle sitzenden Sensor wieder aufgefangen. Die Zeit, die das Licht zum Objekt und wieder zurück benötigt, ist direkt proportional zur Entfernung des Objekts. Über die Lichtgeschwindigkeit lässt sich auf diese Weise sehr einfach der Abstand zu Objekten ermitteln und damit eine Tiefenkarte der Umgebung erstellen.

Kommentieren