Künstliche Intelligenz lernt lernen

Maschinen werden schlau dank Künstlicher Intelligenz. Dazu müssen sie aus großen Datenmengen lernen – die es aber für viele Anwendungen gar nicht gibt. Ein Ausweg sind synthetische Daten.

Lesezeit: 4 Min.
In Pocket speichern
vorlesen Druckansicht Kommentare lesen

Vorsicht Fußgänger: Synthetische Daten trainieren autonome Autos.

(Bild: Offene Fusions-Plattform)

Von
Inhaltsverzeichnis

Straße, Auto, Lkw, Haus, Ampel, Fußgänger – ein dreijähriges Kind kann diese Dinge mit Leichtigkeit benennen. Und es versteht schon, dass man nicht über die Straße gehen sollte, wenn ein Auto heranrauscht – so wie der Fahrer des Autos (hoffentlich) vorsichtshalber abbremst, weil das Kind vielleicht doch losrennen könnte. Solche Entscheidungen treffen wir unbewusst in Sekundenbruchteilen. Aber autonom fahrende Autos? Wenn es nach der Automobilindustrie geht, werden sie in den nächsten Jahren die Straßen erobern und die Unfallzahlen senken helfen. Aber nur, wenn auch sie zuverlässig Fußgänger am Straßenrand erkennen und natürlich vorausfahrende Autos. Dazu müssen Algorithmen mit Künstlicher Intelligenz, die die Umgebung erkennen, mit Millionen Verkehrssituationen trainiert werden. Aber wie? Man kann ja nicht Fahrzeuge losschicken und so oft Menschen über den Haufen fahren lassen, bis hundertprozentig sicher ist, dass sie niemand mehr verletzen.

Die Lösung: Die Software in den Autos wird mittels Deep Learning im Rechner trainiert. Dazu werden Millionen Bilder und Videos aus dem Straßenverkehr durch ein neuronales Netz gejagt, bis der Algorithmus alle Dinge darin sicher klassifizieren kann. Doch woher kommen diese Daten? Tatsächlich sind fehlende Trainingsdaten eine der großen Hürden für den Durchbruch Künstlicher Intelligenz. Das ist nicht nur bei autonomen Fahrzeugen so, sondern bei vielen anderen Fragestellungen auch.

Beispiel vorausschauende Wartung: Ein Maschinenbauer möchte mittels KI vorhersagen, wann ein Bauteil ausfallen wird. Doch dazu muss er Unmengen Daten sammeln und er muss dem lernenden Algorithmus sagen, was wann in der Maschine passiert ist. Es ist kein Zufall, dass es die größten Fortschritte in der KI gerade dort gibt, wo es Trainingsdaten im Überfluss gibt. Das ist zum Beispiel der Fall bei der Gesichtserkennung, wo es online Datenbanken gibt, die Millionen Gesichter enthalten. Bis vor kurzem stellte auch Microsoft so eine Datenbank mit Gesichtern teilweise von Prominenten zur Verfügung. Kürzlich hat das Unternehmen bekannt gegeben, die Datenbank vom Netz zu nehmen – weil der verantwortliche Mitarbeiter das Unternehmen verlassen habe.

Die nächste große Herausforderung in der KI ist das autonome Fahren. Die Automobilhersteller sitzen auf Bergen von Bildern und Videos mit Szenen aus dem Straßenverkehr. Doch Deep Learning Netzwerke, mit denen Algorithmen der KI lernen, können damit nichts anfangen. Sie wissen nicht, was im Bild ein Auto oder ein Fußgänger ist. Hier kommt Bernd Heisele ins Spiel. Der Informatiker mit dem schwäbischen Akzent war lange Jahre bei Honda Research, wo er den humanoiden Roboter Asimo mitentwickelt hat. Seit eineinhalb Jahren ist er Principal Computer Vision Engineer bei Mighty-AI. Das Startup in Seattle annotiert Bilder und Videos aus dem Straßenverkehr, Auftraggeber sind die Automobilhersteller. Über eine Crowdsourcing-Plattform organisiert schauen sich hunderttausende Mitarbeiter in aller Welt solche Bilder an und beschriften das was sie darin sehen: Auto, Ampel, Gebäude und so weiter. Ein Auftrag kann zum Beispiel lauten: Schaut euch diese 100.000 Bilder am PC an und macht um jeden Fußgänger eine Box. "Unsere Kunden sagen uns nicht, wofür sie das verwenden", sagt Heisele, doch der Zweck sei mehr als offensichtlich: Algorithmen trainieren fürs autonome Fahren oder zumindest für eine vorausschauende Erkennung von Gefahrensituationen.

TR extra Digitalisierung: KI lernt lernen (4 Bilder)

Mühsame Handarbeit: Tausende Helfer markieren Objekte auf Fotos. Damit sollen Algorithmen lernen, diese Objekte selbst zu erkennen.
(Bild: Mighty AI)

Ein Kollege, den Bernd Heisele am MIT in Boston kennengelernt hat, ist Cristóbal Curio. Der Informatik-Professor an der Hochschule Reutlingen hat ähnliche Ziele, verfolgt aber einen anderen Ansatz: synthetische Daten. Damit will der Wissenschaftler vor allem das Problem der Intentionserkennung von Personen in den Griff bekommen. Beim Rückwärtseinparken oder beim Überfahren eines Zebrastreifens muss das Fahrzeug in Sekundenbruchteilen entscheiden, ob die Person am Straßenrand das nahende Fahrzeug wahrgenommen hat und stehen bleibt, oder ob sie plötzlich losläuft. "Das erfordert eine technische Wahrnehmung der Intention", so Curio, "denn der Mensch sendet ja keine Daten über sein Verhalten."