Autonomes Fahren: Womit nehmen Roboterautos ihre Umwelt wahr?

Womit nehmen Roboterautos ihre Umwelt wahr?

Wissen | Hintergrund

Nach mehreren Unfällen bleibt die Frage, ob autonome Autos die Straßen künftig sicherer machen. Wir zeigen, wie Roboterautos ihre Umwelt wahrnehmen.

Schon vor rund einem Jahr keimten erste Diskussionen über die Sicherheit teil- und vollautonomer Autos auf. Grund war ein tödlicher Unfall mit dem Autopiloten des Tesla Model S. Ganz gerecht war die Diskussion nicht, denn – anders als von Tesla gelegentlich suggeriert – gemessen an aktueller Technik stellt der Autopilot nur simple Fahrassistenz dar. Mit selbstfahrenden Autos wie sie derzeit von etlichen Herstellern getestet werden, hat er ungefähr so viel gemeinsam wie ein Amiga mit einem Rechenzentrum.

Anders sieht die Sache bei dem tragischen Unfall eines Testwagens des Fahrdienstleisters Uber aus. Das autonome Fahrzeug hatte eine Fußgängerin "übersehen" und angefahren. Die Frau erlag kurz darauf ihren Verletzungen. Wenige Tage später kam es zu einem weiteren Unfall: Ein Tesla kollidierte im Autopilot-Modus bei hoher Geschwindigkeit mit einer Leitplanke, wobei der Fahrer verstarb.

Behörden, Hersteller und Techniker diskutieren nun heftig über die Sicherheit von Roboterautos: "Panikmache" argumentieren die einen, "verbieten" fordern die anderen. Nicht wenige Experten sehen nun gar schon das nahende Ende der einstigen Zukunftsvision.

Seit das Thema einer breiten Öffentlichkeit bewusst ist, sorgen sich viele Verkehrsteilnehmer, dass sie sich die Straßen mit unberechenbaren Computer-Autos teilen müssen. Wir haben das zum Anlass genommen, zu beleuchten, mit welcher Technik autonome Autos ihre Umwelt wahrnehmen und wo sie Probleme haben, das Verkehrsgeschehen richtig einzuschätzen.

Derzeitige autonome Versuchsfahrzeuge orientieren sich mittels Daten multipler Sensoren: Radar wird mit Kameras, Ultraschall und Laserscannern kombiniert, um die spezifischen Vorteile jeder Technik zu nutzen und deren Nachteile möglichst zu eliminieren.

Die rotierenden Laserscanner sitzen bei Versuchsfahrzeugen derzeit noch als Fremdkörper auf dem Dach.

Zur Grundausstattung autonomer Versuchsfahrzeuge gehören zwei GPS-Antennen, die mit differentiellem GPS eine besonders genaue Positionsbestimmung erlauben. In allen vier Kotflügeln sowie an den Seiten und zusätzlich oft auch hinter dem Kühlergrill stecken Radarsensoren mit unterschiedlichen Reichweiten und Öffnungswinkeln. Sie erfassen die gesamte Umgebung in einer Entfernung von bis zu einem viertel Kilometer. Zu ihren Vorteilen zählen außer der hohen Reichweite die Unempfindlichkeit gegenüber Verschmutzung sowie ihre Fähigkeit, auch bei Nebel oder Niederschlag verlässliche Daten zu liefern. Jedoch ist die Auflösung zu gering, um vor allem kleine Objekte auf wenige Zentimeter genau zu lokalisieren. Zudem wird Radar von der Oberfläche des gescannten Objektes beeinflusst.

In Städten und auf Autobahnen sind autonome Autos deshalb zusätzlich auf Laserscanner angewiesen, die eine sehr exakte Erfassung und Positionsbestimmung gescannter Objekte erlauben. Sie arbeiten nach einem ähnlichen Prinzip wie Radar, nur dass sie Licht anstelle von Radiowellen aussenden, weshalb sie häufig als Lidar-Sensoren (light detection and ranging) bezeichnet werden. Sie lassen sich in den Außenspiegeln, im Kühlergrill, hinter der Frontscheibe oder in den Kotflügeln platzieren. An diesen Einbauorten haben sie jedoch ein eingeschränktes Sehfeld und dienen deshalb nur der Überwachung der Fahrspuren direkt vor und hinter dem Fahrzeug. Für die vollständige Orientierung nutzen praktisch alle autonomen Versuchsfahrzeuge auf dem Dach montierte, rotierende Lidar-Sensoren mit Rundumsicht.

Lidar liefert sehr exakte Daten, aus denen sich ein genaues 3D-Modell der gesamten Umgebung errechnen lässt. Da die Reichweite von Laserscannern je nach Hersteller meist in einem Bereich von etwa 150 Metern liegt, kombinieren die Steuersysteme autonomer Autos die Daten mit denen der weiter reichenden Radarsensoren.

An der Ampel, im Stop-and-go-Verkehr oder beim Spurwechsel brauchen die Fahrzeuge eine verlässliche Überwachung des Nahbereichs von wenigen Zentimetern. Hierfür finden sich in den Stoßstangen mehrere Ultraschall-Sensoren, die man von Einparkhilfen kennt. Als klassisches optisches System kommen hinter der Frontscheibe zudem eine oder mehrere Kameras zum Einsatz. Sie sollen Fahrbahnränder und Verkehrsschilder erkennen. In Fahrzeugen mit stereoskopischen Kameras fließen die Daten auch in die Erkennung von Hindernissen ein. Was nur langsam in autonome Autos einzieht, ist das Gehör. Menschliche Fahrer werden durch Martinshörner, aufheulende Motoren, quietschende Reifen bei Notbremsungen oder durch Anhupen sofort gewarnt und richten ihre Aufmerksamkeit in Bruchteilen einer Sekunde in Richtung der Geräusch- oder Gefahrenquelle.

Die Sensoren autonomer Autos liefern unermüdlich mehr Umgebungsinformationen als das menschliche Auge – insbesondere bei Dunkelheit und schlechter Sicht. Doch die Herausforderung ist eine ganz andere: Autonome Fahrsysteme müssen aus den einprasselnden Rohdaten das Verkehrsgeschehen erkennen und die nötigen Schlüsse daraus ziehen. Dafür müssen sie im ersten Schritt den Standort, den Straßenverlauf und die gerade gültigen Verkehrsregeln berechnen sowie alle erkannten Gegenstände in Kategorien wie Schilder, Ampeln, Fahrzeuge, Passanten et cetera einordnen.

Um das Auto in der richtigen Spur zu halten, überwacht das System mit den Frontkameras Fahrbahnmarkierungen, Leitplanken und Seitenstreifen oder Fußwege. Damit das bei schlechten Lichtbedingungen klappt, verknüpfen die Systeme die Daten mit umfangreichem Straßenkartenmaterial und den Standortdaten des GPS. Ohne diese Unterstützung könnte ein Roboterauto schon daran scheitern, sich beim Abbiegen richtig einzuordnen. Vorteil im Vergleich zum Mensch: In den Karten sind Tempolimits vermerkt. Selbst wenn die Schildererkennung per Kamera beispielsweise aufgrund von Verschmutzung scheitert, fahren autonome Autos trotzdem nicht zu schnell.

Aus den Sensordaten errechnen selbstfahrende Autos andere Fahrzeuge (pink), Fußgänger (gelb) und die Bedeutung von Verkehrsschildern (rot). (Bild: Google)

Ebenfalls recht einfach agieren Näherungssensoren: Sobald sie ein Hindernis direkt vor dem Fahrzeug entdecken, bremsen sie. Beim Spurwechsel achten sie zudem auf eine freie Bahn. Eine gute Programmierung reduziert die Gefahr klassischer Toter-Winkel-Unfälle erheblich. Schon heute warnen neue Autos mit dieser Technik beim Spurwechsel mit LEDs im Außenspiegel.

Deutlich schwieriger ist es, aus den Daten der Radar- und Lasersensoren ein Bild der Umwelt zu generieren. Ihre Rohdaten sehen für menschliche Betrachter wie nichtssagende Punktwolken aus, die nichts mit der optischen Wahrnehmung zu tun haben, wie wir sie kennen. Den Steuersystemen geben sie aber wertvolle Informationen über statische und bewegte Objekte. Für letztgenannte extrapoliert das Fahrsystem deren Richtung und Geschwindigkeit, um mögliche Kollisionskurse vorherzusagen.

Die Herausforderung an die Entwickler: Sie müssen die Algorithmen so abstimmen, dass sie einerseits Gefahren frühzeitig erkennen und andererseits keine unbegründeten Vollbremsungen auslösen. So ist beispielsweise ein entgegenkommendes Fahrzeug zunächst keine Gefahr, auch wenn es sich fast frontal auf das autonome Auto zubewegt. Ganz anders sieht die Sache aus, wenn der Gegenverkehr plötzlich zum Ausweichen gezwungen wird oder links abbiegen will …

Autonome Autos nutzen unter anderem die Daten von Radar-Sensoren, Laserscannern und einer 3D-Kamera, um ein internes Abbild der Fahrbahn und aller umgebenden Objekte zu erschaffen.

Während sich Fahrzeuge auf leicht kalkulierbaren Bahnen – also den Fahrspuren – fortbewegen, besteht bei Fußgängern, Radfahrern oder Tieren stets die Gefahr, dass sie plötzlich ihre Richtung ändern oder auf unvorhergesehenen Bahnen den Fahrweg kreuzen. Die Fahrsysteme versuchen deshalb, die erkannten Objekte einzuordnen. Hier hatte Teslas Autopilot versagt.

Einen von der Seite in eine Kreuzung einfahrenden LKW hatte das System wohl wegen des bedruckten Anhängers fälschlicherweise für ein über der Straße montiertes Richtungsschild gehalten und den Laster ungebremst seitlich gerammt.

Der Unfall mit dem Uber-Fahrzeug wirft mehr Fragen auf: Die Strecke um die Unfallstelle weist für Lidar- und Radarsensoren eigentlich gute Voraussetzungen auf, sie hätten die Fußgängerin erkennen müssen. Eventuell hat sich das Fahrsystem von dem geschobenen Fahrrad verwirren lassen und ordnete die Fußgängerin fälschlicherweise als unbewegtes Objekt neben der Fahrspur ein. Doch selbst dann hätten wenigstens kurz vor der Kollision die Näherungssensoren eine Vollbremsung veranlassen müssen.

Wahrscheinlichkeiten sind ein Ansatz, um die Einordnung der erkannten Objekte zu verbessern: Das Fahrsystem kann beispielsweise auf einer Autobahn eine geringere Wahrscheinlichkeit für am Straßenrand auftauchende Fußgänger heranziehen als in Ortschaften. Das verringert die Fehlerquote, durch die das Auto eine Notrufsäule neben dem Standstreifen fälschlicherweise als Mensch einstuft oder innerorts spielende Kinder am Straßenrand als harmlose Betonpoller fehlinterpretiert.

Diese Beispiele zeigen, dass die Ingenieure die Fahrsysteme auf nahezu unzählige Verkehrssituationen und den damit korrespondierenden Wahrscheinlichkeiten "trainieren" müssen. Die Hersteller suchen ihr Heil in künstlicher Intelligenz, neuronalen Netzen und selbstlernenden Systemen. Doch bei derzeitigem Stand sind neuronale Netze nur in beschränkten Feldern erfolgreich – etwa der Bilderkennung.

Die meisten menschlichen Fahrer erinnern sich an ein Beispiel aus der Fahrschule: Wenn zwischen geparkten Autos plötzlich ein Ball auf die Straße rollt, stürmt wahrscheinlich jeden Augenblick ein Kind hinterher. Die KI-Systeme selbstfahrender Autos brauchen solche Information als Basis, um den Umgang mit komplexen Situationen zu erlernen. Das ist unter anderem der Grund, weshalb in den USA derzeit so viele Versuchsfahrzeuge Tausende von Kilometern abspulen. Es klingt nach einer Sisyphos-Aufgabe, jede noch so komplexe Verkehrssituation in Algorithmen zu gießen, um auszugleichen, dass es Computern an Weltwissen felt.

Trotzdem bleibt die Hoffnung, dass mit steigender Zahl autonomer Autos die Unfallzahlen sinken werden. Experten und Hersteller führen dafür ins Feld, dass Fahrsysteme nicht ermüden, sich nicht von Gefühlen beeinflussen lassen und nicht unter Alkohohleinfluss fahren. Zudem werden sie dank Car-to-X-Kommunikation einen genaueren Überblick über das Verkehrsgeschehen bekommen. Doch bis die Fahrsysteme dem Menschen ebenbürtig sind, dürften noch einige Jahre vergehen – bis sie ihn übertrumpfen, dauert es wohl sogar deutlich länger. (spo)

Anzeige
Anzeige