Le système d’aide à la conduite de Tesla impliqué dans un autre accident
La dépendance excessive du conducteur à Autopilot, le logiciel d’aide à la conduite de Tesla, couplée au fait qu’il était distrait, sont « probablement » les causes de l’encastrement, en janvier 2018, d’une voiture du constructeur contre un camion de pompiers à l’arrêt.
« Le NTSB est parvenu à la conclusion que la probable cause de l’accident était l’absence de réaction du conducteur de la Tesla face au camion de pompiers en stationnement sur sa file », écrit dans un rapport publié mercredi le NTSB, l’organisme fédéral américain chargé de la sécurité dans les transports.
Il ajoute que cette inattention est due à « la dépendance excessive au système d’assistance à la conduite avancé de la voiture« .
L’autorité semble toutefois dédouaner Tesla lorsqu’elle insiste sur le fait que l’utilisation d’Autopilot par le conducteur s’est faite « de façon incohérente avec les conseils et les avertissements de Tesla ».
Dans un message diffusé sur son site après de premiers accidents impliquant Autopilot, Tesla demande aux conducteurs de ses voitures de rester attentifs même lorsque ce logiciel est activé.
Le 22 janvier 2018, une berline Tesla Model S s’était encastrée dans un camion de pompiers stationné sur l’Interstate-405 à Culver City en Californie.
Tesla autopilot found partly to blame for crash into fire truck https://t.co/0HJSKBO22J pic.twitter.com/HgqG3PIJOS
— SFGate (@SFGate) 4 septembre 2019
Autopilot était activé au moment de l’accident, affirme le NTSB, précisant que le conducteur a reçu de nombreuses alertes pour remettre ses mains sur le volant.
Le rapport indique que la Tesla suivait un véhicule mais quand ce dernier a changé de file, la Tesla a commencé à accélérer jusqu’à atteindre une vitesse « record » pour cette portion de la route. « Un signal d’avertissement est apparu 49 secondes avant le choc mais le système de freinage automatique ne s’est pas enclenché », a constaté le NTSB. « Les mains du conducteur n’ont pas été détectées sur le volant pendant la séquence et ce dernier (…) n’a pas non plus freiné avant l’impact », dit encore le régulateur.
Ce n’est pas la première fois qu’Autopilot est impliqué dans un accident. Il a notamment été engagé dans les collisions mortelles en 2018 d’une Model 3 en Floride et d’un Model X à Mountain View en Californie. Les enquêtes sont en cours.
Ces deux accidents et un autre impliquant une voiture d’Uber ont relancé les questions sur la fiabilité des logiciels d’aide à la conduite et de façon générale sur les voitures autonomes.
vielen Dank, dass Sie unseren Kommentar-Bereich nutzen.
Bitte verzichten Sie auf Unterstellungen, Schimpfworte, aggressive Formulierungen und Werbe-Links. Solche Kommentare werden wir nicht veröffentlichen. Dies umfasst ebenso abschweifende Kommentare, die keinen konkreten Bezug zum jeweiligen Artikel haben. Viele Kommentare waren bisher schon anregend und auf die Themen bezogen. Wir bitten Sie um eine Qualität, die den Artikeln entspricht, so haben wir alle etwas davon.
Da wir die Verantwortung für jeden veröffentlichten Kommentar tragen, geben wir Kommentare erst nach einer Prüfung frei. Je nach Aufkommen kann es deswegen zu zeitlichen Verzögerungen kommen.
Ihre Epoch Times - Redaktion