Menü

Autonome Autos: Entscheidungen von Systemen für autonomes Fahren sind kaum nachvollziehbar

Wenn Computer beispielsweise Autos steuern, nutzen sie meist Techniken für maschinelles Lernen. Doch je leistungsfähiger sie werden, desto schwieriger lässt sich erklären, warum sie bestimmte Bewertungen vorgenommen haben.

Lesezeit: 1 Min.
In Pocket speichern
vorlesen Druckansicht Kommentare lesen 198 Beiträge
Von

Vom vernetzten zum autonomen Auto

mehr anzeigen

Mindestens zwei schwere Unfälle mit Beteiligung des Tesla-Autopiloten haben die Sicherheit von Systemen für autonomes Fahren in den Fokus geraten lassen. Exakte Informationen über die Funktionsweise des Tesla-Systems gibt es nicht, doch üblicherweise kommt dabei unter anderem Software zum Einsatz, die mittels Deep Learning Autos, Fahrbahnmarkierungen, Straßenschilder und andere Objekte auf Kamerabildern erkennt. Jedoch lässt sich bei Fehlern anschließend kaum nachvollziehen, warum es dazu gekommen ist, berichtet Technology Review online in "Undurchschaubare Autopiloten".

Im Juni kam es zu einem tödlichen Unfall, als ein vom Autopilot gesteuertes Model S mit einem Lastwagen zusammenstieß, den das automatische System übersah. Anfang Juli dann gab die National Highway Traffic Safety Administration bekannt, dass sie einen weiteren Unfall in Pennsylvania untersuche, bei dem ein Model X auf beiden Seiten gegen die Fahrbahnbegrenzung krachte und sich überschlug. Nach Angaben des Fahrers war er mit Autopilot unterwegs. Tesla fordert Fahrer allerdings auf, auch während der Fahrt mit dem Autopiloten auf die Straße zu achten, und erklärt in einem Disclaimer, dass helles Sonnenlicht Probleme machen kann.

Neuronale Netze lassen sich so auslegen, dass sie ein Konfidenzniveau für ihre eigenen Kategorisierungen angeben. Die Komplexität der mathematischen Berechnungen dahinter bedeutet allerdings, dass sich das Netz nicht so einfach zerlegen lässt, um seine Entscheidungen zu verstehen. Das wiederum bedeutet, dass sich unbeabsichtigtes Verhalten schlecht vorhersagen lässt; und wenn es zu einem Fehler kommt, ist er schwierig zu erklären. Wenn ein System zum Beispiel ein Objekt auf einem Foto falsch einordnet, lässt sich kaum (wenn auch nicht gar nicht) herausfinden, welches Merkmal des Bildes dafür ausschlaggebend war. Ähnliche Probleme gibt es bei anderen Maschinenlern-Techniken.

Mehr dazu bei Technology Review online:

Tesla Model S mit Autopilot (23 Bilder)

Testwagen

Tesla Motors stellte uns ein "Model S P90D" mit Autopilot als Testfahrzeug zur Verfügung.
(Bild: Peter-Michael Ziegler / heise online)
Der Autopilot von Teslas Model S in Aktion
Die #heiseshow diskutierte über die Zukunft der autonomen Autos und des Verkehrs

(sma)