Make this article seo compatible, Let there be subheadings for the article, be in french, create at least 700 words
© Reuter. PHOTO DE DOSSIER : Le logo Tesla est visible chez un concessionnaire à Durango, dans le nord de l’Espagne, le 30 octobre 2023. REUTERS/Vincent West/File Photo
(Reuters) – Le constructeur automobile américain Tesla (NASDAQ:) Inc a déclaré lundi qu’il avait une « obligation morale » de continuer à améliorer son système d’assistance à la conduite Autopilot et de le mettre à la disposition d’un plus grand nombre de consommateurs, sur la base de données montrant des mesures de sécurité plus solides lorsqu’il était activé.
En réponse à une enquête du Washington Post sur des accidents graves impliquant le pilote automatique sur des routes où la fonction ne pouvait pas fonctionner de manière fiable, la société a déclaré que ses données montraient qu’elle sauvait des vies et évitait des blessures.
Le rapport du Post indique que le journal a identifié au moins huit accidents entre 2016 et 2023 dans lesquels le pilote automatique a pu être activé dans des situations pour lesquelles il n’a pas été conçu, et a déclaré que Tesla avait pris quelques mesures définitives pour restreindre son utilisation par zone géographique malgré ses capacités techniques. faire cela.
Le pilote automatique est « destiné à être utilisé sur des autoroutes à accès contrôlé » avec « un séparateur central, des marquages de voie clairs et aucune circulation transversale », a indiqué le Post, ajoutant que le manuel d’utilisation de Tesla informe les conducteurs que la technologie peut également faiblir sur les routes s’il y a des collines ou courbes prononcées.
L’enquête du Post « exploite les cas d’utilisation abusive par le conducteur de la fonction d’assistance à la conduite Autopilot pour suggérer que le système est à l’origine du problème », a déclaré Tesla dans un article sur la plateforme de médias sociaux X, ajoutant que l’Autopilot était environ 10 fois plus sûr que la moyenne américaine et 5 fois plus sûr qu’une Tesla sans la technologie activée.
L’entreprise a également réitéré que le conducteur demeure responsable du contrôle du véhicule en tout temps et qu’il est informé de cette responsabilité.
Le Post a déclaré que les organismes de réglementation comme la National Highway Traffic Safety Administration (NHTSA) des États-Unis n’avaient pas adopté de règles pour limiter la technologie là où elle est censée être utilisée, malgré l’ouverture d’enquêtes sur le logiciel après avoir identifié plus d’une douzaine d’accidents dans lesquels des véhicules Tesla ont heurté. véhicules d’urgence stationnaires.
La NHTSA n’a pas répondu immédiatement à une demande de commentaires de Reuters en dehors des heures normales de bureau. L’agence a déclaré au Post qu’il serait trop complexe et trop gourmand en ressources de vérifier que des systèmes comme Autopilot ont été utilisés dans les conditions pour lesquelles ils sont conçus, et que cela ne résoudrait potentiellement pas le problème.
Le mois dernier, un juge de Floride a trouvé des « preuves raisonnables » selon lesquelles le PDG de Tesla, Elon Musk, et d’autres dirigeants savaient que les véhicules du constructeur automobile avaient un système de pilote automatique défectueux, mais permettaient néanmoins aux voitures de rouler de manière dangereuse.
La décision est un revers pour Tesla après que la société a remporté cette année deux procès en responsabilité du fait des produits en Californie concernant le système Autopilot.