Autonome Autos: Versuch und Irrtum

Bis der Computer etwas Sinnvolles macht

Inhaltsverzeichnis

Von Anbeginn der KI-Forschung glaubten Wissenschaftler, diesen Prozess in Maschinen reproduzieren zu können. Marvin Minsky, einer der Gründerväter der künstlichen Intelligenz, konstruierte bereits 1951 als Student in Harvard eine Maschine, die eine einfache Form des Verstärkungslernens verwendete: den stochastischen Neural-Analogie-Verstärkungs-Computer, kurz SNARC. Er bestand aus Dutzenden von Röhren, Motoren und Kupplungen, die das Verhalten von 40 Neuronen und Synapsen simulierten. SNARC konnte den Weg aus einem einfachen Labyrinth finden. Für die Lösung komplexer Probleme hätte die Maschine aber noch sehr viel mehr Neuronen gebraucht, was als viel zu aufwendig eingeschätzt wurde.

Es gab nur wenige weitere Erfolge in den nächsten Jahrzehnten. "Die Leute hielten es zwar für eine coole Idee, dachten aber, dass sie nicht wirklich funktioniert", sagt David Silver, Forscher bei DeepMind, einem der weltweit führenden Protagonisten des Verstärkungslernens heute.

2015 änderte sich das – zunächst allerdings nur für die interessierte Fachöffentlichkeit. Denn DeepMind konnte erstmals zeigen, wie ein neuronales Netz lernte, simple Computerspiele zu spielen – ohne die Regeln zu kennen, nur mit den Computerbildern des Spiels und dem Punktestand als Input.

Im Prinzip funktioniert das ähnlich wie bei Thorndikes Katzen. Der Computer probiert alle möglichen Aktionen, bis er etwas Sinnvolles macht, das Punkte bringt. Diese Aktion wählt der Computer zukünftig mit einer höheren Wahrscheinlichkeit. Dann probiert er weiter und bekommt irgendwann erneut Punkte. So hangelt sich das Programm von Zug zu Zug – bis es am Ende das ganze Spiel beherrscht.

Wenn das Spiel zu komplex ist, wird das Verfahren aber rechnerisch zu aufwendig. DeepMind gelang nun der entscheidende Schritt, um diesen Problem zu lösen: Das Unternehmen kombinierte Verstärkungslernen mit tiefen neuronalen Netzen. Im März 2016 nahm das auch die breite Öffentlichkeit zur Kenntnis: DeepMinds AlphaGo besiegte erstmals den weltbesten Go-Spieler, den Südkoreaner Lee Sedol. Mit konventioneller Programmierung wäre das praktisch unmöglich gewesen.

Seine Stärken kann das Verfahren jedoch auch beim autonomen Fahren ausspielen, etwa beim Einfädeln auf mehrspurigen Straßen wie in der Simulation von Mobileye. "Wenn ein selbstfahrendes Auto dem Gesetz folgt, dann müsste es während der Hauptverkehrszeit an einer viel befahrenen Einfahrt für eine Stunde warten", sagt Shai Shalev-Shwartz, Mobileyes Vizepräsident für Technologie. Das Unternehmen plant, die Software auf einer Flotte von Fahrzeugen in Zusammenarbeit mit BMW und Intel noch in diesem Jahr zu testen.

Nicht alle Forscher sind jedoch davon überzeugt, dass auf die lernenden Systeme unter allen Umständen Verlass ist. Daniel Göhring beispielsweise arbeitet an der FU Berlin mit autonomen Autos. Gemeinsam mit Kollegen hat er bereits 2011 ein autonomes Auto durch den Berliner Stadtverkehr geschickt – unfallfrei, aber auf der Basis von explizit programmierten Regeln. "Ich will die Erfolge beim maschinellen Lernen gar nicht schlechtreden. Man kann mit lernenden Systemen sehr komplexe Situationen beherrschen", sagt er. Der große Nachteil sei aber: "Man weiß nicht genau, was die eigentlich machen."

Tatsächlich macht genau dieser "Black Box"-Effekt den Entwicklern autonomer Autos erheblich zu schaffen: Was genau neuronale Netze lernen, wie sie die Trainingsdaten deuten, ist – zumindest im Moment – noch völlig unklar. Das tiefe neuronale Netz von Nvidia beispielsweise hat 250000 Parameter – 250000 Zahlen, die das Verhalten des Netzes bestimmen, deren Wirkung sich aber zum größten Teil gegenseitig beeinflusst. Bosch und Nvidia trainieren ihre neuronalen Netze zunächst in der – sicheren – Umgebung der Cloud, bevor sie in der Praxis eingesetzt werden. Macht das Auto einen Fehler, sendet es die zugehörigen Daten wieder an die Cloud, wo das Netz dazulernt und gegebenenfalls ein Update an das betreffende Auto schickt.

Gelöst ist das Problem nach Meinung von Göhring damit aber nicht unbedingt. "Wenn ich so ein System teste, und es funktioniert in 99 von 100 Fällen gut, aber in einem hat es noch ein Problem, was mache ich dann?", fragt Göhring. "Welche Stellschrauben muss ich anpassen, damit ich die 99 Fälle nicht zerstöre, aber das Problem mit dem einen Fall löse?" Das sei schwierig, wenn nicht sogar unmöglich.

Haitham Baomar vom University College London behauptet trotzdem, eine mögliche Lösung gefunden zu haben – nicht für Autos, aber für Flugzeuge. Zwar verfügen Flugzeuge bereits jetzt über sogenannte Autopiloten. Das sind allerdings bisher mehr oder minder simple, analoge Regelkreise. Gerät ein Flugzeug plötzlich in schlechtes Wetter, kann es passieren, dass das automatische System die Maschine zum Absturz bringt. Um das zu verhindern, nutzt Baomars "Intelligent Autopilot System" ebenfalls maschinelles Lernen, ähnlich wie die autonomen Autos. Allerdings hat Baomar die Steuerung in kleine Untersysteme aufgeteilt: So ist zum Beispiel ein neuronales Netz ausschließlich für das Höhenruder verantwortlich, ein anderes für den Schub.

"Von jedem dieser Netze weiß ich, wie es sich verhalten sollte", sagt Baomar. Das System arbeitet überraschend gut – noch allerdings nur im Simulator. Die Luftfahrtindustrie sei zwar interessiert, wolle den intelligenten Autopiloten aber zunächst an unbemannten Drohnen testen. "Wir haben die Black Box ein kleines bisschen geöffnet", sagt Baomars Doktorvater Peter Bentley. "Ich denke, das ist die einzige Möglichkeit, diese Systeme zu zertifizieren."

Im Straßenverkehr bleibt dennoch ein großes Problem bestehen: In vielen Situationen werden die Systeme noch lange Hilfe von Menschen brauchen. Aber während Piloten extra dafür ausgebildet sind, einzugreifen, wenn der Autopilot versagt, ist das bei Autofahrern nicht der Fall.

Eine so weitgehende technische Änderung wie die Einführung autonomer Autos könne daher nicht nur über technische Sicherheitsrichtlinien abgefangen werden, argumentiert Bentley. "Ich möchte nicht alarmistisch klingen", sagt er. "Aber im Moment bin ich als KI-Forscher ein wenig nervös, weil niemand über diese Probleme spricht." Thema sei weder die Zertifizierung autonomer Autos, noch würden die Fahrer dafür geschult. "Es ist sehr wichtig, dass wir diese Dinge regeln, bevor die Technologie weit verbreitet wird", mahnt Bentley. "Sonst wird es Tote geben."

Mitarbeit: Robert Thielicke

(wst)