Make this article seo compatible,Let there be subheadings for the article, be in french, create at least 700 words
Un jury d’un tribunal de l’État de Californie a décerné à Tesla Inc une victoire écrasante, concluant que la fonction de pilote automatique du constructeur automobile n’a pas échoué à fonctionner en toute sécurité dans ce qui semble être le premier procès lié à un accident impliquant le logiciel de conduite partiellement automatisé.
Le verdict pourrait être une victoire importante pour Tesla alors qu’elle teste et déploie son pilote automatique et son système plus avancé de «conduite autonome complète (FSD)», que le chef de la direction Elon Musk a présenté comme crucial pour l’avenir de son entreprise, mais qui a attiré l’attention sur la réglementation. et contrôle juridique.
Justine Hsu, une résidente de Los Angeles, a poursuivi le constructeur de véhicules électriques en 2020, affirmant que sa Tesla Model S avait fait une embardée dans un trottoir alors qu’elle était sur le pilote automatique, puis qu’un airbag avait été déployé « si violemment qu’il a fracturé la mâchoire du demandeur, cassé des dents et causé des lésions nerveuses à son visage ».
Elle a allégué qu’il y avait des défauts dans la conception du pilote automatique et de l’airbag, et a demandé plus de 3 millions de dollars de dommages-intérêts pour les défauts allégués et d’autres réclamations.
Tesla a nié toute responsabilité dans l’accident de 2019. Il a déclaré dans un dossier judiciaire que Hsu utilisait le pilote automatique dans les rues de la ville, malgré le manuel d’utilisation de Tesla mettant en garde contre cela.
Lors d’une audience devant la Cour supérieure de Los Angeles vendredi, le jury n’a accordé à Hsu aucun dommage. Il a également constaté que l’airbag n’avait pas échoué à fonctionner en toute sécurité et que Tesla n’avait pas intentionnellement omis de lui divulguer les faits.
Hsu a fondu en larmes à l’extérieur de la salle d’audience après que le jury a rendu son verdict.
L’un des avocats de Hsu, Donald Slavik, s’est dit déçu du résultat et apprécie le service du jury. L’avocat de Tesla, Michael Carey, a refusé de commenter.
Tesla appelle son système d’assistance au conducteur Autopilot ou FSD, mais affirme que cette fonctionnalité ne rend pas les voitures autonomes et que les conducteurs humains devraient être « prêts à prendre le relais à tout moment ».
Le fabricant de véhicules électriques a introduit le pilote automatique en 2015 et le premier accident mortel aux États-Unis a été signalé en 2016, mais l’affaire n’a jamais été jugée.
Moment critique pour Tesla
Le procès Hsu s’est déroulé devant la Cour supérieure de Los Angeles au cours des trois dernières semaines et a présenté le témoignage de trois ingénieurs de Tesla.
Il est arrivé à un moment critique pour l’entreprise alors qu’elle se prépare à une série d’autres essais à partir de cette année liés au système de conduite semi-automatique, qui, selon Musk, est plus sûr que les conducteurs humains.
Bien que le résultat du procès ne soit pas juridiquement contraignant dans d’autres cas, il est considéré comme un cas type car il servirait de guide pour aider les avocats de Tesla et des autres plaignants à affiner leurs stratégies, selon les experts.
Cassandra Burke Robertson, professeur à la Case Western Reserve University School of Law qui a étudié la responsabilité des voitures autonomes, a déclaré que les premiers cas « donnent une indication de la façon dont les cas ultérieurs sont susceptibles de se dérouler ».
Tesla fait également l’objet d’une enquête par le ministère américain de la Justice et la National Highway Traffic Safety Administration sur ses affirmations concernant les capacités d’auto-conduite et la sécurité de la technologie, respectivement.
La principale question dans les cas de pilote automatique était de savoir qui est responsable d’un accident alors qu’une voiture était en mode pilote automatique assistant conducteur – un conducteur humain, la machine ou les deux ? Le procès de Hsu alléguait que le véhicule Tesla avait heurté le trottoir si soudainement qu’elle n’avait pas eu le temps de l’éviter même si elle avait les mains sur le volant et était alerte.
L’agence de presse Reuters a précédemment rapporté qu’une vidéo de 2016 utilisée par Tesla pour promouvoir sa technologie de conduite autonome avait en fait été mise en scène, pour montrer des capacités – telles que s’arrêter à un feu rouge et accélérer à un feu vert – que le système n’avait pas, selon au témoignage d’un ingénieur principal.
Les détails de la vidéo provenaient d’une déposition d’un dirigeant de Tesla dans une autre affaire.
Ce dirigeant, Ashok Elluswamy, directeur du logiciel Autopilot chez Tesla, a témoigné lors du procès Hsu la semaine dernière au sujet de la bande vidéo.