Selbstfahrende Autos mittels Farbflecken hackbar

Selbstfahrenden Autos könnte es buchstäblich zu bunt werden: Forscher des Tübinger Max-Planck-Instituts für Intelligente Systeme (MPI-IS) haben herausgefunden, dass womöglich schon ein bestimmter Farbfleck das System solcher Fahrzeuge verwirren und zum Sicherheitsrisiko werden könnte

Lesezeit: 1 Min.
In Pocket speichern
vorlesen Druckansicht Kommentare lesen 4 Beiträge
Von
  • dpa

Darstellung von Volkswagen zum Selbstfahrenden Auto

(Bild: Volkswagen)

Selbstfahrenden Autos könnte es buchstäblich zu bunt werden: Forscher des Tübinger Max-Planck-Instituts für Intelligente Systeme (MPI-IS) haben herausgefunden, dass womöglich schon ein bestimmter Farbfleck das System solcher Fahrzeuge verwirren und zum Sicherheitsrisiko werden könnte.

Eric Sax vom Karlsruher Institut für Technologie (KIT) wertet die mögliche Sicherheitslücke als nur eines von noch vielen Problemen. „Beim Thema automatisiertes Fahren sind wir noch unglaublich weit von der generellen Straßentauglichkeit und einer Serieneinführung in einem anspruchsvollen Umfeld entfernt“, sagte der selbst nicht an der Studie beteiligte Experte.

Nach Einschätzung der Tübinger Forscher um Anurag Ranjan könnte ein bestimmtes Farbmuster als potenzieller Störfaktor wirken – beispielsweise auf einem T-Shirt oder einer Einkaufstüte. Erfasst die Bordkamera eines Autos den Farbfleck, könnte das den Autopiloten lahmlegen – und das könne vor allem bei hoher Geschwindigkeit gefährlich für Fahrgäste und andere Verkehrsteilnehmer werden.

Gezielte Hackerangriffen auf autonome Autos möglich

Weil sich das Farbmuster im Zuge der Studie binnen weniger Stunden erstellen ließ, warnen die Wissenschaftler Autohersteller vor möglichen gezielten Hackerangriffen auf ihre autonomen Autos. Das Forscherteam informierte Firmen wie Tesla, Porsche, Daimler, BMW und Bosch über das mögliche Risiko, wie eine Sprecherin des Instituts mitteilte.

Die Studienergebnisse beruhen allerdings auf Mutmaßungen. So gehen die Wissenschaftler von bestimmten Voraussetzungen dazu aus, wie Automobilhersteller ihre selbstfahrenden Autos Entscheidungen treffen lassen. Details zu solchen Funktionen verraten die Hersteller nach Angaben der Sprecherin aber nicht.

Die Erkennnisse erinnern an die „Fake Lane Attack“ chinesischer Sicherheitsexperten Anfang 2019.