Undurchschaubare Autopiloten

Wer entscheidet, kann Fehler machen – das gilt für Menschen ebenso wie für Computersysteme. Bei Maschinen allerdings wird es immer schwieriger, anschließend die Gründe dafür zu analysieren.

Lesezeit: 2 Min.
In Pocket speichern
vorlesen Druckansicht Kommentare lesen 4 Beiträge
Von
  • Will Knight

Zwei aktuelle Unfälle unter Beteiligung des Autopilot-Systems von Tesla könnten Fragen darüber aufwerfen, wie Computersysteme auf der Basis von maschinellem Lernen validiert und getestet werden können, wenn etwas schiefläuft.

Im Juni kam es zu einem tödlichen Unfall, als ein vom Autopilot gesteuertes Model S mit einem Lastwagen zusammenstieß, den das automatische System übersah. Tesla fordert Fahrer auf, auch während der Fahrt mit Autopilot auf die Straße zu achten, und erklärt in einem Disclaimer, dass helles Sonnenlicht Probleme machen kann. Anfang Juli dann gab die National Highway Traffic Safety Administration bekannt, dass sie einen weiteren Unfall in Pennsylvania untersuche, bei dem ein Model X auf beiden Seiten gegen die Fahrbahnbegrenzung krachte und sich überschlug. Nach Angaben des Fahrers war er mit Autopilot unterwegs.

Die genaue Funktionsweise des Autopiloten hat Tesla bislang nicht offengelegt. Allgemein aber werden zunehmend Maschinenlern-Techniken genutzt, um Auto-Systeme zu trainieren, insbesondere zur Erkennung visueller Informationen. Das israelische Unternehmen MobileEye, ein Zulieferer für Tesla und andere Autohersteller, verkauft zum Beispiel Software, die mittels Deep Learning Autos, Fahrbahnmarkierungen, Straßenschilder und andere Objekte auf Kamerabildern erkennt.

Neuronale Netze lassen sich so auslegen, dass sie ein Konfidenzniveau für ihre eigenen Kategorisierungen angeben. Die Komplexität der mathematischen Berechnungen dahinter bedeutet allerdings, dass sich das Netz nicht so einfach zerlegen lässt, um seine Entscheidungen zu verstehen. Das wiederum bedeutet, dass sich unbeabsichtigtes Verhalten schlecht vorhersagen lässt; und wenn es zu einem Fehler kommt, ist er schwierig zu erklären. Wenn ein System zum Beispiel ein Objekt auf einem Foto falsch einordnet, lässt sich kaum (wenn auch nicht gar nicht) herausfinden, welches Merkmal des Bildes dafür ausschlaggebend war. Ähnliche Probleme gibt es bei anderen Maschinenlern-Techniken.

Mit zunehmender Verbreitung solcher Algorithmen werden die Aufsichtsbehörden überlegen müssen, wie sie sich prüfen lassen. Die Autohersteller sind sich darüber im Klaren, dass immer komplexere und automatisiertere Fahrzeuge den Regulierern Schwierigkeiten machen könnten. Toyota finanziert ein Forschungsprojekt am MIT, das ermöglichen soll, dass autonome Autos ihre Entscheidungen anschließend erklären, und noch weitere ähnliche Vorhaben.

Im Auto lässt sich Deep Learning nutzen, um ein Fahrzeug auf der Grundlage von Sensordaten zu steuern, also nicht nur dafür, um Objekte auf Bildern zu erkennen. Ein Team der Princeton University etwa hat ein automatisiertes Fahrsystem entwickelt, das weitgehend darauf basiert. Und Forscher beim Chiphersteller Nvidia, der unterschiedliche Hardware für Autos liefert, haben bereits ein autonomes Fahrzeug vorgestellt, das ausschließlich auf Deep Learning basiert.

Karl Iagnemma ist leitender Forscher am MIT und Gründer des Start-ups nuTonomy für autonome Taxis. Nach seinen Worten wäre ein System, das vollständig auf Deep Learning basiert, schwierig zu befragen. "Man entwickelt einen Black-Box-Algorithmus, der mit Beispielen für sicheres Fahren trainiert wird, aber dessen Output eine ziemlich undurchschaubare Funktion ist", sagt Iagnemma.

Silvio Savarese, ein auf maschinelles Sehen spezialisierter Assistant Professor an der Stanford University, sieht einen der Nachteile bei konventionellem Maschinenlernen darin, dass es seine Schlüsse anders als Menschen nicht aus unterschiedlichen Arten von Informationen zieht. Selbst wenn ein Fahrzeug gerade blockiert ist, kann ein Mensch anhand seines Fahrwegs vermuten, dass es zu einem Hindernis werden könnte. "Wir nutzen sehr viel Kontext-Informationen", erklärt Savarese. "Die heutigen Lern-Mechanismen sind nicht gut darin.“

Die Tesla-Untersuchung wird von den Entwicklern von Technologie für autonomes Fahren genau beobachtet. Unabhängig von ihren Ergebnissen gibt es die Sorge, dass die öffentliche Wahrnehmung der Technologie und ihrer Sicherheit leidet. Iagnemma etwa fürchtet eine reflexhafte Reaktion auf den tödlichen Unfall.

"Wir befinden uns an einem Punkt, an dem der Fortschritt ausgebremst werden könnte", sagt er. "Wenn es zur kollektiven Weisheit wird, dass ein einzelner Unfall zeigt, dass die Entwickler skrupellos waren, ist das eine ausgesprochen hohe Hürde."

(sma)