TESLA RAPPELLE 362 758 VOITURES EN RAISON DE RISQUES DE CRASHES AVEC LEURS LOGICIELS FSD
Tesla a récemment averti que son logiciel de conduite assistée expérimental, commercialisé sous le nom « Full Self-Driving (FSD) beta », pourrait causer des accidents. Dans ce sens, l’entreprise rappelle volontairement 362 758 véhicules équipés de FSD, selon une notice de rappel postée sur le site de la National Highway Traffic Safety Administration la semaine dernière. Le rappel concerne les modèles Model S, Model X, Model 3, et Model Y produits entre 2016 et 2023.
FAILLES DE LOGICIELS ÉVENTUELLES
Les logiciels FSD Beta posent de sérieux problèmes de sécurité. Tesla a admis dans un rapport de sécurité sur la NHTSA que les voitures équipées de FSD beta pouvaient avoir des incidents en permettant aux véhicules concernés de « se comporter dangereusement aux intersections, comme rouler tout droit dans une voie réservée aux virages, entrer dans une intersection contrôlée par un arrêt sans s’arrêter complètement, ou bien passer à travers une intersection pendant un signal jaune sans faire preuve de prudence suffisante ». La mise à jour logicielle pour corriger ces failles de sécurité sera déployée par l’entreprise.
PROBLÈMES DE SÉCURITÉ LIÉS AUX SYSTÈMES DE CONDUITE AUTOMATISÉS
Tesla rencontre plusieurs problèmes de sécurité avec son système Autopilot, ainsi qu’avec son système Full Self-Driving en version beta. Récemment, la National Highway Traffic Safety Administration US (NHTSA) a par exemple annoncé son intention d’enquêter sur le système Autopilot de Tesla. Les chiffres fédéraux montrent que les véhicules de Tesla auraient causé près de 70% des accidents impliquant des systèmes avancés d’aide à la conduite depuis juin 2021, mais les autorités ont mis en garde contre la conclusion hâtive sur la sécurité. Au total, 38 enquêtes spéciales ont été ouvertes par la NHTSA sur des accidents impliquant des voitures de Tesla, ayant abouti à 19 décès.
HISTORIQUE D’HYPING
Elon Musk a largement « hypes » les systèmes d’Autopilot et de Full Self-Driving de Tesla ces dernières années. En 2016, Musk avait promis à ses fans la sortie d’une voiture autonome capable de rouler de Los Angeles à New York sans « aucun besoin d’intervention humaine ». En 2019, Musk a collecté des milliards de dollars tout en promettant aux investisseurs que la société aurait 1 million de voitures prêtes à être des robotaxis sur les routes d’ici fin 2020. En juillet 2020, Elon Musk a déclaré que Tesla était « très proche » d’atteindre le niveau de technologie de conduite autonome de niveau 5. Cependant, les voitures Tesla se situent encore actuellement à un niveau deux, qui nécessite toujours que le conducteur reste vigilant et prêt à agir avec ses mains sur le volant.
Il est à noter que l’entreprise a été précédemment accusée de publicité mensongère pour ses fonctionnalités d’autonomie de conduite. En plus de cela, la Californie a accusé Tesla de « fausses publicités » car les fonctionnalités ne fournissent pas un contrôle de véhicule autonome complet.
Sources :
– https://www.nhtsa.gov/vehicle/2021/TESLA/MODEL%2525203/4%252520DR/RWD#recalls
– https://www.silicon.co.uk/e-innovation/artificial-intelligence/tesla-driver-blames-malfunctioning-self-driving-software-after-crash-491121
– https://static.nhtsa.gov/odi/rcl/2023/RCLRPT-23V085-3451.PDF
– https://www.cnbc.com/2022/06/15/data-shows-tesla-accounts-for-most-reported-driver-assist-crashes-but-officials-warn-report-lacks-context.html