web analytics
Bild: IMTEST

Im Dezember letzten Jahres wurden bekanntlich 2 Millionen Tesla-Fahrzeuge in der größten Rückrufgeschichte der USA zur Überprüfung einbestellt.

Bei der Hälfte der 956 untersuchten Unfälle stellten die US-Behörden dem zu Folge einen Zusammenhang mit der Tesla-Autopilotfunktion fest.

Unfallursache „Autopilot“

Am 25. April wurde der jüngste Bericht der US-Auto-Sicherheitsbehörden veröffentlicht. Darin wurde die Fahrerassistenzfunktion „Autopilot” des Autoherstellers Tesla ursächlich mit Hunderten von Unfällen und mehr als einem Dutzend Todesfällen in Verbindung gebracht, wie auch RT berichtete.

Nach Angaben der US-amerikanischen Verkehrssicherheitsbehörde NHTSA (National Highway Traffic Safety Administration) sei Teslas Autopilot an mindestens 14 tödlichen Unfälle beteiligt gewesen. Angaben des Autokonzerns zu Folge solle die Funktion zu vollständig autonomen Autos führen.

Seit Beginn ihrer dreijährigen Untersuchung im Jahr 2021 hatte die Behörde fast 1.000 gemeldete Unfälle untersucht, die sich zwischen 2018 und August 2023 ereignet hatten. Demnach habe der „Fehlgebrauch“ des Autopilot-Systems mindestens 14 Unfälle verursacht, die zu Todesfällen und „vielen weiteren mit schweren Verletzungen” geführt hatten.

Das Office of Defects Investigation (ODI) der NHTSA fand Beweise dafür, dass Teslas „schwaches Fahrereingriffssystem nicht für die permissiven Betriebsmöglichkeiten des Autopilot geeignet war”. Dies führe daher zu einer „kritischen Sicherheitslücke”.

Hälfte der Unfälle als „Autopilot-Versagen“ festgestellt

Von den 956 untersuchten Unfällen stellten die Beamten bei etwa der Hälfte einen Autopilot-bezogenen Zusammenhang fest. Bei 211 Unfällen stellte das ODI fest, dass „die Frontebene des Tesla gegen ein Fahrzeug oder ein Hindernis in seinem Fahrweg stieß”. Diese Unfälle, die oftmals die Schwersten waren, hatten 14 Todesopfer und 49 Verletzte zur Folge. In mehr als hundert Fällen gab es zudem auch Fahrbahnabweichungen. Dabei wurde Autosteer, eine Komponente von Autopilot, „versehentlich durch Eingaben des Fahrers deaktiviert”, so der Bericht.

Irreführende Bezeichnung verleitet zu Fahrlässigkeit

Den Ermittlern zu Folge waren die Fahrer, die den Autopilot oder die fortschrittlichere Funktion „Full Self-Driving” des Systems nutzten, „nicht ausreichend mit der Fahraufgabe beschäftigt”. Die Technologie von Tesla „stellte nicht ausreichend sicher, dass die Fahrer ihre Aufmerksamkeit auf die Fahraufgabe richteten”, so die NHTSA. Laut den Untersuchungsergebnissen stimmten die Angaben des Elektroautoherstellers auch nicht mit der Realität überein. Die NHTSA äußerte die Befürchtung, dass die Benennung von Teslas Autopilot „die Fahrer dazu verleiten könnte, zu glauben, dass die Automatisierung über größere Fähigkeiten verfügt, als es tatsächlich der Fall ist, und die Fahrer dazu verleiten könnte, der Automatisierung übermäßig zu vertrauen.”

Am 26. April informierten die US-amerikanischen Sicherheitsbehörden über eine weitere Untersuchung. Diese solle auch im Zusammenhang mit der größten Rückrufaktion im Dezember vergangenen Jahres erfolgen. Dabei wurden mehr als 2 Millionen US-Tesla-Fahrzeuge zurückgerufen, praktisch alle Tesla-Fahrzeuge auf US-Straßen. Die Rückrufaktion wurde von der NHTSA wegen eines Software-Updates von Tesla angeordnet.

Mittels des Software-Updates sollte die Nutzung der Autopilot-Funktion eingeschränkt werden. Nichts desto trotz plant das Unternehmen jedoch, sein Robotaxi am 8. August 2024 vorzustellen.





 

Von ELA

10 Gedanken zu „Tesla – Hälfte der Unfälle durch Autopilot verschuldet“
    1. Oophs, was machen Sie anders ? Wenn ich Wahrheit poste, stehe ich im Schatten.
      Dieser Staat steht hinter allem, was wir heute sehen.

  1. Nicht einmal geschenkt würde ich so ein mobiles Krematorium haben wollen, wo der Autopilot entscheidet: Ab in die Kiste.

  2. moin
    frage: was ist der autopilot? es ist künstliche Intelligenz, welche ganz eigene EXPERIMENTE äh lernen genannt! mit dem versuchs-karnikel, äh benutzer genannt veranstaltet…
    das schreibt zb. das bundesamt für sicherheit in der informationstechnik.
    gugg: _ttps://www.bsi.bund.de/DE/Themen/Verbraucherinnen-und-Verbraucher/Informationen-und-Empfehlungen/Wie-geht-Internet/KI-Autonomes-Fahren/ki-autonomes-fahren.html

    1. Es gibt keine künstliche Intelligenz – es gibt nur programmierte Algorythmen.
      Schilder, Abstände, Silhouetten und Anderes zu erkennen und darauf, jeh nach Programm, zu reagieren bezeugt keiner Intelligenz.
      Schon die Unfälle zeigen auf das die Programmation und die Erkennungssensoren Fehlerhaft sind.
      Aber Erkennungssensoren und Algorythmen sind vor allem gefährlich für die Anonymität im öffentlichen Leben.
      Es gibt keine K.I., aber Programme die uns überwachen.
      Wehret den Anfängen!

  3. Itt a fogalmakkal van baj, amik minden tudatlan amerikait félrevezetnek.
    A Tesla “autopilot” elnevezés azt sugallja, hogy az autó önállóan és biztonságosan részt tud venni a közlekedésben. Mint a repülögép az “autopilot” funkcóval.
    Ez abszolút nem így van.
    Ez csak egy kicsit felkamerázott “adaptiv tempomatnak” felelhet meg, ami egy beállított sebességet és bizonyos körülmények között a követési távolságot tudja tartani az elötte haladóhoz. Minden pillanatban a vezetönek kell a kormányt kézben tartani és a közlekedési helyzeteket megoldani.
    Csak a hülye amerikai Tesla-tulaj gondolja, hogy az autó majd helyette vezet…..
    De mire megérthetné, már meg is halt a balesetben.

    1
    1

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert