Autonome Autos: Versuch und Irrtum

Kein Mensch kann einem autonomen Auto alle denkbaren Verkehrssituationen einprogrammieren. Deshalb sollen die Fahrzeuge künftig selbst dazulernen. Wie aber lernen sie das Richtige?

Lesezeit: 6 Min.
In Pocket speichern
vorlesen Druckansicht Kommentare lesen
Von

Die Computersimulation sieht auf den ersten Blick nicht sonderlich spektakulär aus – bis man begreift, dass es autonome Autos sind, die da auf einer stark befahrenen, vierspurigen virtuellen Autobahn fahren. Die Hälfte dieser Autos versucht, schneller zu fahren und von der rechten Spur nach links zu wechseln. Die andere Hälfte versucht, genau das Gegenteil zu tun. Scheinbar eine Aufgabe, die einen Computer zur Verzweiflung bringt, aber die autonomen Fahrzeuge auf dem Bildschirm lösen das Problem präzise und elegant.

TR 5/2017

Das israelische Unternehmen Mobileye zeigte diese Demonstration auf einer der größten Konferenzen für künstliche Intelligenz und maschinelles Lernen, der NIPS im Dezember 2016 in Barcelona. Das Erstaunlichste ist jedoch nicht, dass autonome Fahrzeuge die gezeigten Fähigkeiten besitzen. Wirklich verblüffend ist, dass die Software dieses Verhalten selbstständig gelernt hat – einfach nur durch Üben und Ausprobieren.

Mobileye ist auf Chips und Software spezialisiert, die Kamarabilder für Fahrerassistenzsysteme auswerten – um dort zum Beispiel Objekte zu erkennen. Dass Intel das Unternehmen jetzt für rund 15 Milliarden Dollar übernimmt, wirft nur eines von vielen Schlaglichtern auf die bemerkenswerten Fortschritte, die es in letzter Zeit beim autonomen Fahren gegeben hat: Die Google-Tochter Waymo lässt Versuchsfahrzeuge in Kalifornien fahren, Uber testete autonome Autos bis vor Kurzem in Pittsburgh, das Start-up nuTonomy ist mit autonomen Taxis in Singapur unterwegs.

Bezieht man akademische Projekte und die Ankündigungen namhafter Autohersteller mit ein, ließe sich die Liste nahezu beliebig fortsetzen. Die entscheidende Frage ist jedoch: Wer stellt sicher, dass die Systeme das Richtige lernen? Wenn Autos beginnen, Rückschlüsse aus dem Fahrverhalten anderer Fahrzeuge, aus Unfällen oder überraschenden Hindernissen zu ziehen: Wer kontrolliert, ob sie korrekt sind? Die Diskussion ist keineswegs so virtuell, wie das Mobileye-Beispiel es nahelegt. Was die Entwicklung so massiv vorantreibt, ist unter anderem eine neue KI-Methode namens Deep Learning.

"Seine Entdeckung ist die größte Verbesserung des autonomen Fahrens, die es je gegeben hat", sagt Jensen Huang, Mitbegründer und CEO von Nvidia, das gemeinsam mit Bosch an einem spezialisierten Steuerungscomputer für autonome Autos arbeitet. Das "Gehirn für autonome Autos" soll "spätestens Anfang der nächsten Dekade" in Serie gehen. "Als wir vor fünf Jahren über Deep Learning gesprochen haben, hielten uns alle für verrückt, aber sie waren zu höflich, um uns das zu sagen", ergänzt Huang. "Letztes Jahr hat sich alles geändert, als sich zeigte, dass es ein brauchbares Konzept ist."

Tatsächlich konnte Nvidia 2016 zum ersten Mal ein autonomes Auto präsentieren, das nur aus Kameradaten und Steuersignalen eines menschlichen Fahrers gelernt hatte, selbsttätig zu fahren. Der Zusammenhang zwischen Kamerabildern und dem Einschlagwinkel des Lenkrades verriet ihm beispielsweise, was es tun muss, um auf der Straße zu bleiben. "Level-3-Fähigkeiten", also hochautomatisiertes Fahren von Autos, sieht Huang daher bereits "Ende des Jahres" als realisierbar an. Vollautonomes Fahren bereits Ende 2018.

Die Einschätzung ist optimistisch, aber nicht aus der Luft gegriffen, wenn man die zahlreichen Veröffentlichungen, Präsentationen und Videos von Forschern und Entwicklern sieht. Manche Unternehmen nutzen neuronale Netze vor allem, um Sensordaten auszuwerten, Straßenränder, Schilder und andere Verkehrsteilnehmer zu erkennen. Tiefe neuronale Netze haben sich dabei nicht nur als schneller und zuverlässiger herausgestellt. Weil in ihren Schichten viele verschiedene Merkmale verarbeitet werden, erkennen sie beispielsweise Verkehrsschilder auch dann, wenn die durch parkende Laster am Straßenrand teilweise verdeckt werden. Die eigentliche Fahrsteuerung übernimmt dann ein eher herkömmliches, regelbasiertes System. Newcomer wie Drive.ai oder nuTonomy setzen hingegen radikal auf das "End-to-End-Learning", bei dem das neuronale Netz direkt die Kontrolle übernimmt.

Allerdings hat das Verfahren einen großen Nachteil: Man braucht extrem viele Daten, um das gewünschte Verhalten zu lernen. Die Nvidia-Entwickler zeichneten 72 Fahrstunden auf unterschiedlichen Straßen mit unterschiedlichen Wetter- und Beleuchtungsbedingungen auf. Das klingt nicht nach viel, aber jede Sekunde nimmt die Frontkamera zehn Bilder auf, die zusammen mit den Steuerdaten und zusätzlichen Informationen über die Fahreraktivität in die Trainingsdaten einfließen.

Spezialisierte neuronale Netze versuchen das Problem effizienter zu lösen. Sie verarbeiten die Eingabedaten zunächst in einer Art Vorstufe. Eine Methode dafür sind sogenannte konvolutionale neuronale Netze (CNN). Diese fassen Blöcke von Pixeln zusammen und können so leichter Strukturen in Bildern erkennen. Die zweite Variante sind rekurrente neuronale Netze (RNN). Sie fassen mehrere Bilder zusammen, die zeitlich direkt aufeinander folgen. Das Verfahren wird bisher vor allem in der Sprachverarbeitung benutzt, könnte autonomen Autos aber auch ermöglichen, einfache Verknüpfungen zwischen Steuerkommandos und Fahrverhalten zu lernen: Wenn ich das Lenkrad einschlage, fahre ich um die Kurve. Beide Verfahren sind aber noch in einem frühen Entwicklungsstadium. Bis zur Marktreife wird noch einige Zeit vergehen.

Weiter fortgeschritten ist das Verstärkungslernen. Es kopiert ein sehr einfaches Prinzip aus der Natur. Der Psychologe Edward Thorndike dokumentierte dieses Prinzip vor mehr als 100 Jahren. Er sperrte Katzen in Boxen, aus denen sie nur durch Drücken eines Hebels entkommen konnten. Nach zahlreichen Versuchen trafen die Tiere schließlich den Hebel durch Zufall. Nachdem sie gelernt hatten, dieses Verhalten mit dem gewünschten Ergebnis zu verknüpfen, entkamen sie zunehmend schneller.

Von Anbeginn der KI-Forschung glaubten Wissenschaftler, diesen Prozess in Maschinen reproduzieren zu können. Marvin Minsky, einer der Gründerväter der künstlichen Intelligenz, konstruierte bereits 1951 als Student in Harvard eine Maschine, die eine einfache Form des Verstärkungslernens verwendete: den stochastischen Neural-Analogie-Verstärkungs-Computer, kurz SNARC. Er bestand aus Dutzenden von Röhren, Motoren und Kupplungen, die das Verhalten von 40 Neuronen und Synapsen simulierten. SNARC konnte den Weg aus einem einfachen Labyrinth finden. Für die Lösung komplexer Probleme hätte die Maschine aber noch sehr viel mehr Neuronen gebraucht, was als viel zu aufwendig eingeschätzt wurde.

Es gab nur wenige weitere Erfolge in den nächsten Jahrzehnten. "Die Leute hielten es zwar für eine coole Idee, dachten aber, dass sie nicht wirklich funktioniert", sagt David Silver, Forscher bei DeepMind, einem der weltweit führenden Protagonisten des Verstärkungslernens heute.

2015 änderte sich das – zunächst allerdings nur für die interessierte Fachöffentlichkeit. Denn DeepMind konnte erstmals zeigen, wie ein neuronales Netz lernte, simple Computerspiele zu spielen – ohne die Regeln zu kennen, nur mit den Computerbildern des Spiels und dem Punktestand als Input.

Im Prinzip funktioniert das ähnlich wie bei Thorndikes Katzen. Der Computer probiert alle möglichen Aktionen, bis er etwas Sinnvolles macht, das Punkte bringt. Diese Aktion wählt der Computer zukünftig mit einer höheren Wahrscheinlichkeit. Dann probiert er weiter und bekommt irgendwann erneut Punkte. So hangelt sich das Programm von Zug zu Zug – bis es am Ende das ganze Spiel beherrscht.

Wenn das Spiel zu komplex ist, wird das Verfahren aber rechnerisch zu aufwendig. DeepMind gelang nun der entscheidende Schritt, um diesen Problem zu lösen: Das Unternehmen kombinierte Verstärkungslernen mit tiefen neuronalen Netzen. Im März 2016 nahm das auch die breite Öffentlichkeit zur Kenntnis: DeepMinds AlphaGo besiegte erstmals den weltbesten Go-Spieler, den Südkoreaner Lee Sedol. Mit konventioneller Programmierung wäre das praktisch unmöglich gewesen.

Seine Stärken kann das Verfahren jedoch auch beim autonomen Fahren ausspielen, etwa beim Einfädeln auf mehrspurigen Straßen wie in der Simulation von Mobileye. "Wenn ein selbstfahrendes Auto dem Gesetz folgt, dann müsste es während der Hauptverkehrszeit an einer viel befahrenen Einfahrt für eine Stunde warten", sagt Shai Shalev-Shwartz, Mobileyes Vizepräsident für Technologie. Das Unternehmen plant, die Software auf einer Flotte von Fahrzeugen in Zusammenarbeit mit BMW und Intel noch in diesem Jahr zu testen.

Nicht alle Forscher sind jedoch davon überzeugt, dass auf die lernenden Systeme unter allen Umständen Verlass ist. Daniel Göhring beispielsweise arbeitet an der FU Berlin mit autonomen Autos. Gemeinsam mit Kollegen hat er bereits 2011 ein autonomes Auto durch den Berliner Stadtverkehr geschickt – unfallfrei, aber auf der Basis von explizit programmierten Regeln. "Ich will die Erfolge beim maschinellen Lernen gar nicht schlechtreden. Man kann mit lernenden Systemen sehr komplexe Situationen beherrschen", sagt er. Der große Nachteil sei aber: "Man weiß nicht genau, was die eigentlich machen."

Tatsächlich macht genau dieser "Black Box"-Effekt den Entwicklern autonomer Autos erheblich zu schaffen: Was genau neuronale Netze lernen, wie sie die Trainingsdaten deuten, ist – zumindest im Moment – noch völlig unklar. Das tiefe neuronale Netz von Nvidia beispielsweise hat 250000 Parameter – 250000 Zahlen, die das Verhalten des Netzes bestimmen, deren Wirkung sich aber zum größten Teil gegenseitig beeinflusst. Bosch und Nvidia trainieren ihre neuronalen Netze zunächst in der – sicheren – Umgebung der Cloud, bevor sie in der Praxis eingesetzt werden. Macht das Auto einen Fehler, sendet es die zugehörigen Daten wieder an die Cloud, wo das Netz dazulernt und gegebenenfalls ein Update an das betreffende Auto schickt.

Gelöst ist das Problem nach Meinung von Göhring damit aber nicht unbedingt. "Wenn ich so ein System teste, und es funktioniert in 99 von 100 Fällen gut, aber in einem hat es noch ein Problem, was mache ich dann?", fragt Göhring. "Welche Stellschrauben muss ich anpassen, damit ich die 99 Fälle nicht zerstöre, aber das Problem mit dem einen Fall löse?" Das sei schwierig, wenn nicht sogar unmöglich.

Haitham Baomar vom University College London behauptet trotzdem, eine mögliche Lösung gefunden zu haben – nicht für Autos, aber für Flugzeuge. Zwar verfügen Flugzeuge bereits jetzt über sogenannte Autopiloten. Das sind allerdings bisher mehr oder minder simple, analoge Regelkreise. Gerät ein Flugzeug plötzlich in schlechtes Wetter, kann es passieren, dass das automatische System die Maschine zum Absturz bringt. Um das zu verhindern, nutzt Baomars "Intelligent Autopilot System" ebenfalls maschinelles Lernen, ähnlich wie die autonomen Autos. Allerdings hat Baomar die Steuerung in kleine Untersysteme aufgeteilt: So ist zum Beispiel ein neuronales Netz ausschließlich für das Höhenruder verantwortlich, ein anderes für den Schub.

"Von jedem dieser Netze weiß ich, wie es sich verhalten sollte", sagt Baomar. Das System arbeitet überraschend gut – noch allerdings nur im Simulator. Die Luftfahrtindustrie sei zwar interessiert, wolle den intelligenten Autopiloten aber zunächst an unbemannten Drohnen testen. "Wir haben die Black Box ein kleines bisschen geöffnet", sagt Baomars Doktorvater Peter Bentley. "Ich denke, das ist die einzige Möglichkeit, diese Systeme zu zertifizieren."

Im Straßenverkehr bleibt dennoch ein großes Problem bestehen: In vielen Situationen werden die Systeme noch lange Hilfe von Menschen brauchen. Aber während Piloten extra dafür ausgebildet sind, einzugreifen, wenn der Autopilot versagt, ist das bei Autofahrern nicht der Fall.

Eine so weitgehende technische Änderung wie die Einführung autonomer Autos könne daher nicht nur über technische Sicherheitsrichtlinien abgefangen werden, argumentiert Bentley. "Ich möchte nicht alarmistisch klingen", sagt er. "Aber im Moment bin ich als KI-Forscher ein wenig nervös, weil niemand über diese Probleme spricht." Thema sei weder die Zertifizierung autonomer Autos, noch würden die Fahrer dafür geschult. "Es ist sehr wichtig, dass wir diese Dinge regeln, bevor die Technologie weit verbreitet wird", mahnt Bentley. "Sonst wird es Tote geben."

Mitarbeit: Robert Thielicke

(wst)