Tesla rappelle 362 000 véhicules américains via le logiciel Full Self-Driving


© Reuters. PHOTO DE FICHIER: PHOTO DE FICHIER: Le logo de Tesla est visible dans une station Tesla Supercharger le 21 octobre 2020. REUTERS / Arnd Wiegmann / File Photo / File Photo

De David Shepardson

WASHINGTON (Reuters) – Tesla Inc rappellera plus de 362 000 véhicules américains pour mettre à jour son logiciel bêta Full Self-Driving (FSD) après que les régulateurs américains ont déclaré jeudi que le système d’assistance à la conduite ne respectait pas correctement les lois sur la sécurité routière et pouvait provoquer des accidents.

La National Highway Traffic Safety Administration (NHTSA) a déclaré que le logiciel Tesla (NASDAQ 🙂 permet à un véhicule de « dépasser les limites de vitesse ou de traverser des intersections de manière illégale ou imprévisible, ce qui augmente le risque d’accident ».

Tesla a déclaré qu’il n’était pas d’accord avec l’analyse de la NHTSA, mais a finalement accepté la demande de janvier de l’agence de sécurité. Le constructeur de véhicules électriques a déjà affronté la NHTSA, qui a un certain nombre de sondes Tesla en attente, sur d’autres problèmes de sécurité et des demandes de rappel.

Tesla, dont les actions ont clôturé en baisse de 5,7 % à 202,04 $, publiera gratuitement une mise à jour logicielle en direct (OTA). Le fabricant de véhicules électriques a déclaré qu’il n’était au courant d’aucune blessure ou mort pouvant être liée au problème de rappel. Le constructeur automobile a déclaré qu’il avait 18 demandes de garantie.

Le rappel concerne les véhicules Model S et Model X 2016-2023, Model 3 2017-2023 et Model Y 2020-2023 équipés du logiciel FSD Beta ou en attente d’installation.

Les sénateurs américains Ed Markey et Richard Blumenthal, tous deux démocrates, ont déclaré que le rappel était « attendu depuis longtemps », ajoutant que « Tesla doit enfin cesser de surestimer les capacités réelles de ses véhicules ».

C’est un nouveau revers pour le système d’aide à la conduite de Tesla. Le chef de la direction, Elon Musk, a manqué à plusieurs reprises ses propres objectifs pour atteindre la capacité de conduite autonome, qu’il a présentée comme une vache à lait potentielle.

Cette décision est une intervention rare des régulateurs fédéraux dans un programme de test en situation réelle que la société considère comme crucial pour le développement de voitures capables de se conduire elles-mêmes.

Le rappel intervient moins de deux semaines avant la journée des investisseurs de la société le 1er mars, au cours de laquelle Musk devrait promouvoir la capacité d’intelligence artificielle du fabricant de véhicules électriques et prévoit d’élargir sa gamme de véhicules.

Alors que la fonction Autopilot de Tesla aide à la direction, à l’accélération et au freinage pour les autres véhicules et les piétons dans sa voie, la société affirme que le FSD est un système plus avancé « conçu pour fournir un guidage plus actif et une conduite assistée » sous la supervision active du conducteur.

Tesla a déclaré avoir 2,9 milliards de dollars de revenus différés à la fin de 2022 liés à « l’accès à nos fonctionnalités FSD, à la connectivité Internet, aux programmes de suralimentation gratuits et aux mises à jour logicielles en direct principalement sur les ventes automobiles ».

Tesla n’a pas pu être joint pour commenter, mais Musk a tweeté jeudi que le mot « rappel » pour une mise à jour logicielle en direct est « anachronique et tout simplement faux! »

Tesla a lancé FSD Beta à presque tous ses 400 000 clients FSD aux États-Unis et au Canada au quatrième trimestre, lorsqu’il a reconnu des revenus FSD de 324 millions de dollars. Il a déclaré qu’il prévoyait de reconnaître près d’un milliard de dollars de revenus différés qui subsistent au fil du temps au fur et à mesure que les mises à jour logicielles sont livrées.

SONDES EN COURS

Musk a positionné la technologie FSD comme l’une des nombreuses initiatives d’intelligence artificielle chez Tesla.

En mai dernier, dans une interview avec des membres d’un club de propriétaires de Tesla, Musk a qualifié la conduite autonome d' »essentielle » pour l’entreprise. « C’est vraiment la différence entre Tesla qui vaut beaucoup d’argent ou vaut pratiquement zéro. »

La NHTSA a une enquête en cours qu’elle a ouverte en 2021 sur 830 000 véhicules Tesla avec système d’assistance au conducteur Autopilot sur une série d’accidents avec des véhicules d’urgence en stationnement. La NHTSA examine si les véhicules Tesla garantissent de manière adéquate que les conducteurs sont attentifs. La NHTSA a déclaré jeudi malgré le rappel de la FSD que « l’enquête sur le pilote automatique de Tesla et les systèmes de véhicules associés reste ouverte et active ».

Tesla a déclaré que dans « certaines circonstances rares … la fonctionnalité pourrait potentiellement enfreindre le code de la route ou les coutumes locales lors de l’exécution de certaines manœuvres de conduite ».

Les situations possibles où le problème pourrait survenir incluent le déplacement ou le virage à certaines intersections pendant un feu jaune et le fait de changer de voie hors de certaines voies réservées aux virages pour continuer à rouler tout droit, a déclaré la NHTSA.

La NHTSA a déclaré que « le système peut ne pas répondre suffisamment aux changements des limites de vitesse affichées ou ne pas tenir compte de manière adéquate de l’ajustement par le conducteur de la vitesse du véhicule pour dépasser les limites de vitesse affichées ».

L’année dernière, Tesla a rappelé près de 54 000 véhicules américains équipés du logiciel FSD Beta qui peut permettre à certains modèles d’effectuer des « arrêts roulants » et de ne pas s’arrêter complètement à certaines intersections, ce qui pose un risque pour la sécurité, a déclaré la NHTSA.

Selon Tesla et la NHTSA, les fonctions de conduite avancées de FSD ne rendent pas les voitures autonomes et obligent les conducteurs à faire attention.

En décembre, la NHTSA a ouvert deux nouvelles enquêtes spéciales sur des accidents impliquant des véhicules Tesla, dont un accident de huit véhicules à San Francisco sur le Bay Bridge dans lequel un conducteur a signalé que la fonction FSD avait mal fonctionné.

Depuis 2016, la NHTSA a ouvert plus de trois douzaines d’enquêtes sur des accidents de Tesla où des systèmes avancés d’assistance à la conduite ont été soupçonnés d’être utilisés et 19 décès ont été signalés.



Source link -4