„Gelegentlich gefährlich unfähig“: Kritische Situationen bei Tesla-„Autopilot“-Test
VonSebastian Oppenheimer
schließen
1.600 Kilometer legten Tester mit der aktuellsten „Full Self-Driving“-Variante eines Teslas zurück. Sie waren größtenteils „beeindruckt“ – und genau das sei die große Gefahr.
Wie gefährlich ist Teslas „Autopilot“ wirklich? Die Technik ist hochumstritten – denn es handelt sich (trotz des Namens) lediglich um ein Assistenzsystem, das ständig vom Fahrer überwacht werden muss. Auch in der höchsten Ausbaustufe namens „Full Self-Driving“ (FSD) ist das nicht anders. Immer wieder kommt es mit dem System zu kritischen Situationen, wie beispielsweise „Phantombremsungen“, derentwegen auch ein deutscher Tesla-Kunde vor Gericht klagt. Nun hat ein US-Automobilforschungsunternehmen die neueste Version des FSD getestet – und ein drastisches Fazit gezogen.
Teslas FSD wiegt Kunden laut den AMCI-Testern in falscher Sicherheit
Rund 1.000 Meilen (umgerechnet etwa 1.600 Kilometer) waren die Experten von AMCI mit einem Tesla Model 3 Performance mit der neuesten FSD-Version an Bord unterwegs. Laut ihrem Bericht ging es dabei durch die Stadt, über Landstraßen, Bergstraßen und Autobahnen. 75 Mal mussten die Fahrer im Testzeitraum manuell eingreifen – sprich also alle 21 Kilometer. Das Tückische am FSD-„Autopilot“: Er funktioniert laut den Experten über weite Strecken, insbesondere für ein kamerabasiertes System, „beeindruckend“ – was die Fahrer aber in falscher Sicherheit wiege. Denn in manchen Fällen scheitert das FSD – und dann wird es hochkritisch.
Ein US-Automobilforschungsunternehmen hat die neueste FSD-Version von Tesla auf rund 1.600 Kilometern getestet. Es kam zu einigen kritischen Situationen. (Symbolbild)
Kritische Situationen: Tesla überfährt eine rote Ampel und doppelt durchgezogene Linien
Unter anderem überfuhr das Model 3 der Tester nachts eine rote Ampel (im YouTube-Video weiter unten zu sehen), ein anderes Mal blieb der Tesla an einer grünen Ampel stehen, während die anderen Fahrzeuge weiterfuhren. Auf einer kurvenreichen Landstraße überfuhr das Elektroauto eine doppelt durchgezogene gelbe Linie und geriet in den Gegenverkehr – der menschliche Fahrer musste eingreifen. Das Tester-Fazit zum FSD: „Überraschend fähig, aber gleichzeitig problematisch (und gelegentlich gefährlich unfähig)“.
„Scheinbare Unfehlbarkeit“: Warum Teslas FSD laut den Testern so gefährlich ist
Die „scheinbare Unfehlbarkeit in den ersten fünf Minuten des FSD-Betriebs erzeugt ein Gefühl der Ehrfurcht, das unweigerlich zu gefährlicher Selbstgefälligkeit führt“, erklärt Guy Mangiamele, Leiter von AMCI Testing. Doch: „Wenn Fahrer mit aktiviertem FSD fahren, ist es unglaublich gefährlich, mit den Händen im Schoß oder vom Lenkrad weg zu fahren.“ Am beunruhigendsten sei, dass man das FSD viele Male dabei beobachten könne, wie es ein bestimmtes Szenario erfolgreich bewältige – oft auf demselben Straßenabschnitt oder an derselben Kreuzung –, nur um es beim nächsten Mal unerklärlicherweise scheitern zu sehen.
Zeitenjagd auf Nordschleife: Diese 10 Elektroautos waren am schnellsten
Experten testen FSD: „Zweifel an der Gesamtqualität seiner Basisprogrammierung“
„Ob es an mangelnder Rechenleistung liegt, an einem Pufferproblem, wenn das Auto bei den Berechnungen ,hinterher‘ gerät, oder an einem kleinen Detail der Umgebungsbewertung, lässt sich nicht sagen“, so Mangiamele „Diese Fehler sind am heimtückischsten. Aber es gibt auch ständige Fehler aufgrund einfacher Programmiermängel, wie zum Beispiel, wenn der Spurwechsel zu einer Autobahnausfahrt erst knapp eine Zehntel Meile vor der Ausfahrt selbst beginnt, was das System behindert und Zweifel an der Gesamtqualität seiner Basisprogrammierung aufkommen lässt.“
Die Problematik der Bezeichnung „Autopilot“ und „Full Self-Driving“ für ein System, das nicht wirklich vollautonom fährt, ist schon länger bekannt. Zuletzt musste der US-Elektroautobauer mit seinen Versprechungen zurückrudern – und das Tesla-FSD bekam einen bedeutsamen Namenszusatz.