Die Diskussion über Teslas umstrittenes Assistenzsystem namens „Autopilot“ endet nicht: Am ersten März dieses Jahres fuhr ein Tesla Model 3 mit einer Geschwindigkeit von 68 Meilen pro Stunde (109 km/h) ungebremst unter einen die Straße überquerenden Lkw-Anhänger. Erlaubt waren auf diesem Highway-Teilstück 55 Meilen pro Stunde (88 km/h). Bei dem Unfall riss der obere Teil des Elektroautos inklusive des kompletten Daches ab, der untere fuhr noch einige hundert Meter weiter – der Fahrer starb an schwersten Verletzungen.
Die US-Verkehrsbehörde NTSB (National Transportation Safety Board) hat nun in ihrem ersten Unfallbericht festgestellt, dass der Fahrer zehn Sekunden vor dem Unfall den Autopiloten aktivierte. Acht Sekunden vor dem Einschlag waren keine Handbewegungen mehr am Lenkrad zu registrieren. Tesla geht davon aus, dass der Fahrer sofort nach Aktivierung des Assistenzsystems das Steuer los ließ und weder er noch der Autopilot versuchten abzubremsen oder dem Hindernis auszuweichen.
Parallelen zu tödlichem Unfall 2016
Der jetzige Unfall weist Parallelen zu einem Unfall vom 7. Mai 2016 auf: Damals raste ein Tesla Model S mit einer Geschwindigkeit von 119 km/h unter einen die Straße querenden Anhänger eines Sattelschleppers. Auch dort riss der obere Teil des Autos ab, die Reste fuhren ebenfalls noch einige hundert Meter weiter. Der aktivierte Autopilot hatte seinerzeit anscheinend die weiße Seite des Anhängers als hoch hängendes Verkehrsschild interpretiert. Außerdem gestand der damalige Kameralieferant Mobileye ein, dass seine Systeme nicht geeignet waren, Querverkehr zu erkennen. Im Oktober 2016 forderte das deutsche Kraftfahrt-Bundesamt (KBA) Tesla auf, den Namen „Autopilot“ nicht mehr für sein Assistenzsystem zu verwenden, da dieser bei dem Fahrer die irrige Annahme entstehen lassen könnte, das Auto sei in Lage, autonom zu fahren. Tesla lehnte den Wunsch des KBA mit der Begründung ab, man weise deutlich darauf hin, dass der Fahrer auch bei aktiviertem Autopiloten aufmerksam den Verkehr beobachten und notfalls eingreifen müsse.

Musk über Berichterstattung sauer
Danach passierten weitere Tesla-Unfälle mit aktiviertem Autopilot – mindestens ein weiterer mit tödlichen Folgen: Am 23. März 2018 schlug ein Model X in die von einem vorherigen Unfall beschädigte Beton-Mittelleitplanke eines kalifornischen Highways ein – der Fahrer, ein 38-jähriger Apple-Ingenieur, starb. Bei diesem Vorfall funktionierte anscheinend die Spurerkennung oder der Lenkassistent des Autopiloten nicht. Seinen Fuß brach sich ein Tesla-Fahrer, als sein Model S am 11. Mai 2018 mit aktiviertem Autopilot in ein stehendes Feuerwehrauto krachte. Wie die vorhergehenden, so löste auch dieser Unfall ein großes Medienecho aus, was Tesla-Chef Elon Musk wütend zurückwies. In den USA würden pro Jahr 40.000 Menschen bei Verkehrsunfällen sterben, aber über ein gebrochenes Fußgelenk bei einem Tesla-Crash würde berichtet, polterte er. Außerdem wären bei einem Unfall mit dieser Geschwindigkeit viel schlimmere Verletzungen bis hin zum Tod zu erwarten. Später sah er anscheinend ein, dass es in der Berichterstattung weniger um den gebrochenen Fuß als um das wiederholte Totalversagen des Autopilot-Systems ging und er gestand kleinlaut ein, dass die Assistenztechnik besser werden müsse und Tesla jeden Tag daran arbeite.
Technik war und ist noch nicht soweit
Seit 2016 basierte der Tesla-Autopilot auf Hardware des kalifornischen Chipsatz-Entwicklers NVIDIA. Während Tesla behauptete, diese Hardware würde bereits für vollautonomes Fahren ausreichen, weist NVIDIA inzwischen in einer Stellungnahme darauf hin, dass die Technik dafür nie geeignet gewesen sei und dass man dies auch kommuniziert hätte. Tesla hat NVIDIA inzwischen aus seinen Fahrzeugen verbannt und arbeitete schon länger mit dem koreanischen Elektronikkonzern Samsung zusammen. Samsung soll die neue Recheneinheit produzieren, entwickelt wurde der Chipsatz größtenteils vom ehemaligen Apple-Spezialisten Pete Bannon, der auf ein Abwerbeangebot Teslas einging. Ob Bannon bereits Erfahrung mit den spezifischen rechentechnischen Anforderungen des autonomen Fahrens hatte, ist unbekannt. Jedenfalls soll das neue System erheblich schneller sein als die NVIDIA-Technik. NIVIDIA sah sich umgehend zu einer Stellungnahme gezwungen und wies darauf hin, dass Elon Musk auf dem so genannten Tesla Autonomy Investor Day im April 2019 falsche Zahlen zur Rechengeschwindigkeit der NVIDIA-Systeme genannt hätte.

Musk will unbedingt Vorreiter sein
Auch wenn die Kette von schweren Unfällen mit aktiviertem Tesla-Autopilot nicht abreißt, wird Elon Musk nicht müde, den kalifornischen Elektroautobauer als Vorreiter in Sachen autonomes Fahren zu verkaufen. Auf dem von Tesla veranstalteten Autonomy Investor Day schwärmte er von der Geschwindigkeit des neuen Samsung-Fahrcomputers und von den seit Jahren von vielen Teslas auf Millionen Testkilometern gesammelten Daten. Ob dies tatsächlich einen Entwicklungsvorsprung bedeutet, bleibt abzuwarten – Experten wie der Ex-NHTSA-Chef David Friedmann haben daran erhebliche Zweifel. Bis heute konnte Tesla beim Thema Autonomes Fahren nicht überzeugen, dafür sind inzwischen zu viele Unfälle selbst mit dem teilautonomen Autopiloten passiert: Unwillkürliches Beschleunigen eines Tesla mit Auffahren auf den Vordermann ist zwar bei Youtube dokumentiert, aber den Medien kaum noch eine Nachricht wert. Fraglich ist natürlich, warum die Fahrer trotz aller Warnungen nicht eingreifen.

Mensch verlässt sich anscheinend auf Technik
Dazu schrieb der New Yorker Psychiater Vatsal G. Thakkar kürzlich einen Artikel in der New York Times. Thakkar weist darauf hin, dass Assistenzsysteme das Autofahren nicht sicherer machen würden. Der Mensch verlasse sich zu einfach auf die technischen Helfer und büße damit Aufmerksamkeit ein – er plädiert für weniger Technik im Auto. So würde beispielsweise eine Handschaltung dafür sorgen, dass der Fahrer permanent aufmerksam sein müsste. Die US-Bundesbehörde NHTSA (National Highway Traffic Safety Administration) untersuchte nach dem ersten tödlichen Tesla-Autopilotenunfall in Florida, ob der Spurhalteassistent „Autosteer“ als Teil des Autopiloten für mehr oder weniger Unfälle sorgt. Die Behörde kam zu dem Ergebnis, dass Autosteer die Unfallzahlen senke. Später wertete das private Analyse-Unternehmen Quality Control Systems Corp. die Daten aus und deckte katastrophale Fehler der NHTSA auf. Unter anderem flossen elf Teslas in die Auswertung mit ein, die eine negative Fahrleistung aufwiesen, deren Meilenstand also unter null lag. Eine Erklärung der NHTSA, wie es zu den eigentümlichen Berechnungen kommen konnte, gibt es bis heute genauso wenig wie eine neue Auswertung – eine Antwort auf unsere Nachfrage diesbezüglich steht noch aus.

Ex-NHTSA-Chef ging von Verbot des Autopiloten aus
Dass die Unfälle vom 1. März 2019 und vom 7. Mai 2016 sehr ähnlich abliefen, gibt Grund zur Sorge. Schließlich hatte Tesla inzwischen fast drei Jahre Zeit, die Systeme sowohl hardwareseitig als auch softwaretechnisch zu verbessern. David Friedman, bis 2014 Chef der NHTSA und inzwischen Vizepräsident des angesehenen US-Verbraucherportals Consumer Reports, war erstaunt, dass nach dem tödlichen 2016er Unfall kein Verbot des offensichtlich technisch mangelhaften Autopiloten durch die NHTSA folgte. Friedman äußerte sich besorgt darüber, dass der Tesla-Autopilot nicht in der Lage war, einen riesigen Lkw-Anhänger zu erkennen und dass er anscheinend ebenso wenig erkennt, ob ein Fahrer aufmerksam ist. Der Fachmann wirft dem Autohersteller jetzt vor, Teslafahrer schon viel zu lange als menschliche Versuchskaninchen einzusetzen. Und Friedmann legt nach, indem er betont, dass es viele Fahrassistenzsysteme draußen auf der Straße gäbe – aber nur von einem würde man etwas im Zusammenhang mit Crashs und tödlichen Unfällen hören.
Friedman weist darauf hin, dass andere Hersteller die Nutzung von teilautonomen Systemen nur auf Straßen ohne Querverkehr erlauben – das Super Cruise-Fahrerassistenzsystem von GM funktioniert beispielsweise nur auf solchen Straßen. Laut NTSB (National Transportation Saftey Board) empfahl Tesla seinen Kunden nach dem 2016er-Unfall, den Autopilot nur auf autobahnähnlichen Straßen zu nutzen – eine technische Einschränkung auf diese Art von Straßen durch Tesla erfolgte aber bis heute nicht.
Die NHTSA teilte inzwischen mit, dass die Untersuchungen zum Unfall vom 1. März 2019 weiter fortgeführt würden.