Pixelmuster irritieren die KI autonomer Fahrzeuge

KI-Bilderkenner lassen sich durch künstliche Muster in die Irre führen. Autonome Autos nehmen so Schilder oder die Bewegung anderer Fahrzeuge nicht wahr.

Lesezeit: 7 Min.
In Pocket speichern
vorlesen Druckansicht Kommentare lesen 421 Beiträge
Von
  • Arne Grävemeyer
Inhaltsverzeichnis

Ob bei der automatischen Sortierung von Fotos auf dem Smartphone oder bei der Personensuche in Facebook: Bilderkenner-KIs treffen eine Vorauswahl oder markieren bekannte Gesichter. Das ist praktisch und manchmal auch lustig, wenn die Software etwa ein Poster an der Wand in den Fokus nimmt oder ein paar Falten im Sofakissen für ein Gesicht hält.

Doch Fehler in der Bilderkennung sind kein Spaß mehr, wenn sie einem autonomen Fahrzeug im Straßenverkehr unterlaufen. Forscher der Uni Tübingen haben in Zusammenarbeit mit dem Max-Planck-Institut für intelligente Systeme nachgewiesen, dass selbst ein kleiner Aufkleber im Straßenbild die Bewegungsschätzung von KI-Systemen irritieren kann. Busse oder Fahrradfahrer scheinen dann aus Sicht des selbstfahrenden Autos in genau entgegengesetzter Richtung unterwegs zu sein. Diese Attacke ist besonders tückisch, weil Menschen derartige Aufkleber am Straßenrand gar nicht sonderlich auffallen. Ihre zerstörerische Wirkung sieht man ihnen nicht an.

Bereits 2013 beschrieben erste wissenschaftliche Arbeiten derlei Angriffe durch kaum wahrnehmbare Pixelmanipulationen im Bild. Diese Störmuster führen eine künstliche Intelligenz auf eine falsche Fährte. Zahlreiche Beispiele für die sogenannten Adversarial Attacks sind seitdem veröffentlicht worden, zum Beispiel unterschiedlichste Natur- und Technikaufnahmen, die eine bestimmte KI nach unmerklichen Anpassungen sämtlich als Vogel Strauß klassifiziert.

Was viele Forscher zunächst für eine Kuriosität eines bestimmten zur Bilderkennung eingesetzten neuronalen Netzes oder einer speziellen Netzarchitektur hielten, entpuppte sich als ein strukturelles Problem. „Es ist nun einmal so, dass neuronale Netze Eigenschaften in Bildern erkennen und für die Klassifikation nutzen, die der Mensch kaum oder gar nicht wahrnimmt“, erklärt Dr. Wieland Brendel, KI-Experte am Bethge Lab der Uni Tübingen. Andererseits entwickeln sie kein tiefes Verständnis einer Szene, wie ein Mensch, der üblicherweise ein Tier oder einen Gegenstand auch aus unterschiedlichen Blickwinkeln an seiner äußeren Form erkennt.

Nicht ein Foto von einem Toaster irritiert den Klassifikator (oben), sondern ein unrealistisches Pixelmuster, das für die KI wichtige Merkmale eines Toasters zeigt (unten)

(Bild: Tom Brown)

„Ein KI-Klassifikator hat keine Vorstellung davon, was ein Hund ist“, sagt auch Professor Aleksander Madry vom MIT in Cambridge, Massachusetts. Das zugrunde liegende neuronale Netz hat in der Trainingsphase lediglich gelernt, eingehende Pixeldaten mehr oder weniger korrekt nach „Hund“ oder „Katze“ zu sortieren. Dazu hat es in der Trainingsphase Pixelmuster entdeckt, die sich als ausschlaggebend herausgestellt haben. In diesem Sinne unterstreicht Madry, dass die bedeutungslos erscheinenden Pixelveränderungen nicht wirklich ohne Bedeutung sind. Nach seinen Untersuchungen kann ein neuronales Netz, das nur diese Änderungsmuster als Trainingsdaten erhält, anschließend seinerseits Hunde und Katzen fast ebenso gut unterscheiden wie der ursprüngliche Klassifikator. Und wieder weiß der Mensch eigentlich nicht, wie die KI das macht; aber das wusste er beim ursprünglichen Klassifikator auch schon nicht.