Fake Lanes

Sicherheitsexperten lotsen Tesla auf Gegenfahrbahn

Die Hacking-Abteilung Keen Security Lab des chinesischen Internet-Giganten Tencent ist nicht nur wie bisher über Schnittstellen in die Software des Autos eingestiegen, sondern hat auch durchgespielt, was passiert, wenn man einfach nur die Sensorik austrickst

Lesezeit: 1 Min.
In Pocket speichern
Druckansicht Kommentare lesen 480 Beiträge
3 Bilder
Von

Die Hacking-Abteilung Keen Security Lab des chinesischen Internet-Giganten Tencent (mit „WeChat“, „Tencent Traveler“, „QQ.com“, „Q-Zone“ und vielen weiteren Social Apps so etwas wie das chinesische Google) hat zum wiederholten mal einen Tesla-Autopiloten genarrt. Solche gewissermaßen akademischen Whitehat-Hacks werden oft im Hinblick auf eine Belohnung der Hersteller durchgeführt und bieten beiden Seiten einen Vorteil. Zuletzt hat die Vorstellung eines Tesla-Hacks des Keen Security Lab auf der Black Hat 2018 Security Conference in den USA dazu geführt, dass Tesla seine Codes gepatched und die bekannten Sicherheitslücken damit geschlossen hat.

Die Sensorik austricksen

Diesmal sind die Sicherheitsexperten nicht nur wie bisher über Schnittstellen in die Software des Autos eingestiegen, sondern haben auch durchgespielt, was passiert, wenn man einfach nur die Sensorik austrickst. Den Forschern war bekannt, dass die Steuerungssysteme oft schon durch kleine, von Menschen meist nicht wahrnehmbare Veränderungen dazu gebracht werden können, überproportional große Fehler zu begehen.

Das Einfallstor, das sie bei der automatischen Spurführung aufgestoßen haben, sind – wenig verwunderlich – die Fahrbahnmarkierungen. Zunächst haben sie herausgefunden, wie diese zu manipulieren sind, um das System die Spur verlieren zu lassen („Eliminate Lane Attack“). Dabei stellten sie fest, dass das System eine hohe Erkennungsleistung auch unter schwierigen Bedingungen, wie etwa Schnee oder schlechter Sicht, bietet.

Fake Lane Attack

Ihre „Fake Lane Attack“ beruht auf gefälschten Fahrbahnmarkierungen, weil das System ausschließlich auf der Erkennung von Markierungen beruht. Navigationsdaten oder eine Fahrzeug-Feinortung werden beispielsweise nicht einbezogen. Eine Reihe davon auf der rechten Fahrbahnseite genügte, um vom Autopiloten als Führungslinien verstanden zu werden. Als die Forscher sie immer etwas weiter nach links versetzt aufbrachten, steuerte der Autopilot den Tesla akkurat auf die auf die Gegenfahrbahn. Besonders bedenklich fanden sie, dass man dazu keineswegs die üblichen Markierungen zu kopieren brauchte. Den Forschern gelang es auch mit kleinen, roten Aufklebern, den Tesla zuverlässig in den Gegenverkehr steuern zu lassen, wie sie ausführen. Sie hoffen, so schreiben sie weiter, dass der Hersteller damit auch das Problem sieht, dass lediglich ein paar mutwillige Veränderungen an der Straße zu einem Fehlverhalten führen kann.