11 collisions avec des véhicules de 1ere intervention depuis 2018
La National Highway Traffic Safety Administration (NHTSA) a déclaré que depuis janvier 2018, elle avait identifié 11 accidents dans lesquels les modèles Tesla ont rencontré des scènes impliquant de véhicules de première intervention et ont par la suite heurté un ou plusieurs véhicules impliqués dans ces scènes.
Dans le cadre de ces accidents, des Teslas sur pilote automatique ou régulateur de vitesse avertissant du trafic ont heurté des véhicules sur des scènes où des véhicules de première intervention ont utilisé des feux de véhicule d’urgence, des fusées éclairantes, un panneau de flèches illuminé ou des cônes avertissant des dangers. L’agence a annoncé l’action lundi dans une publication sur son site Web.
La NHTSA a envoyé ces dernières années de nombreuses équipes spéciales chargées de mener des enquêtes pour examiner une série d’accidents impliquant des véhicules de Tesla. La plupart de ces incidents ont eu lieu après la tombée de la nuit et lors de signalisations émises par des véhicules de première intervention.
17 blessés et une personne tuée
Parmi les accidents identifiés par la National Highway Traffic Safety Administration (NHTSA) dans le cadre de l’enquête, 17 personnes ont été blessées et une a été tuée.
La NHTSA a déclaré que parmi les 11 accidents, 4 avaient eu lieu cette année, le plus récent s’étant déroulé le mois dernier à San Diego.
Enquête sur 765 000 véhicules de Tesla
L’enquête porte sur 765 000 véhicules, soit la quasi-totalité des véhicules que Tesla a vendue aux États-Unis depuis la commercialisation du modèle année 2014.
Une évaluation préliminaire du pilote automatique des Tesla Models Y, X, S et 3, mis en place entre 2014-2021 sera menée dans le cadre de la procédure judiciaire.
La NHTSA va évaluer l’engagement du conducteur dans la tâche de conduite
La NHTSA a déclaré que son enquête « évaluera les technologies et les méthodes utilisées pour surveiller, assister et faire respecter l’engagement du conducteur dans la tâche de conduite dynamique pendant le fonctionnement du pilote automatique ».
Étant donné que la NHTSA pourrait exiger un rappel, elle doit d’abord décider de transformer une enquête préliminaire en une analyse technique.
Le pilote automatique, qui gère certaines tâches de conduite et permet aux conducteurs de garder les mains sur le volant pendant de longues périodes, fonctionnait dans au moins trois véhicules Tesla impliqués dans des accidents mortels aux États-Unis depuis 2016, a déclaré le National Transportation Safety Board (NTSB).
Un défi pour l’Autopilot : savoir gérer les signalisations émises par véhicules d’urgence et d ‘intervention
Le NTSB a critiqué le manque de protection du système de Tesla pour le pilote automatique.
En février 2020, le directeur de la technologie de conduite autonome de Tesla, Andrej Karpathy, a identifié un défi pour son système de pilote automatique : comment reconnaître quand les feux clignotants d’urgence d’une voiture de police garée sont allumés.
« C’est un exemple d’une nouvelle tâche que nous aimerions connaître », avait déclaré Karpathy lors d’une conférence.
Dans l’un des cas, un médecin regardait un film sur un téléphone lorsque son véhicule a percuté un soldat de l’État en Caroline du Nord.
Autopilot ne signifie pas conduite automatique !
En juin, la NHTSA a déclaré qu’elle avait envoyé des équipes pour examiner 30 accidents de Tesla impliquant 10 décès depuis 2016 où l’on soupçonne l’utilisation de systèmes avancés d’aide à la conduite.
Dans un communiqué, la NHTSA a rappelé aux conducteurs qu' »aucun véhicule à moteur disponible dans le commerce aujourd’hui n’est capable de se conduire seul… Certaines fonctions avancées d’assistance à la conduite peuvent promouvoir la sécurité en aidant les conducteurs à éviter les accidents et à atténuer la gravité des accidents qui se produisent, mais comme avec toutes les technologies et équipements sur les véhicules à moteur, les conducteurs doivent les utiliser correctement et de manière responsable » a-t-elle ajouté.
En janvier 2017, la NHTSA a clôturé une évaluation préliminaire du pilote automatique de Tesla couvrant 43 000 véhicules sans prendre aucune mesure après une enquête de près de sept mois.
La NHTSA a déclaré à l’époque qu’elle « n’avait identifié aucun défaut dans la conception ou les performances » du pilote automatique « ni aucun incident dans lequel les systèmes ne fonctionnaient pas comme prévu ». L’assistant à la conduite, dit « Autopilot », de Tesla fait l’objet de nombreuses polémiques après une série d’accidents ayant impliqué des véhicules de la société.
Notre avis, par leblogauto.com
Si la plupart des medias francophones omettent de préciser qu’il s’agit de collisions avec des véhicules de première intervention, la presse anglo-saxonne met quant à elle se fait en avant, et le mentionne même explicitement dans le titre.
Car au-delà du problème d’un système d’Autopilot qui n’a rien à voir avec un logiciel offrant des fonctionnalités d’auto pilotage du véhicule, il s’agit aussi pour la NHTSA de déterminer comment le logiciel embarqué sur les Tesla interprète les signaux émis par des véhicules de première intervention (fusée, feux de véhicules d’urgence, warning …)
Sources : Reuters, AFP, The Guardian
A lire également :
c est le risque du tout automatique on fait « confiance » a la machine repute plus fiable…
Au final le code et la validation est faites par des etres humain donc bon l erreur est toujours possible et le seul responsable sur un systeme non autonome reste le conducteur
Sauf que l’Autopilot n’a jamais eu la prétention d’être tout automatique, et les conducteurs sont avertis.
Mais le nom est mauvais, c’est sur.
C’est sur, mauvais nom, mais bon choix marketing, qui prépare le futur…
Et c’est certain, c’est l’avenir : même actuellement et avec quelques défaillances, l’autopilot reste un système beaucoup plus sur qu’un conducteur… il n’est jamais fatigué et ne s’endort pas au volant, il respecte les limitations de vitesse et le code de la route, ne grille pas les feux rouges, ne téléphone pas au volant… bref, la machine peut faire des erreurs, mais elle reste infiniment plus fiable que l’humain…
Les autorités américaines et européennes devraient commencer par interdire le nom Autopilot, qui est trompeur.
Tesla devrait renommer cette version Tesla Copilot.
Niv.2 : Tesla Copilot
Niv.3 : Tesla Enhanced Copilot
Niv.4 : Tesla Almost Autopilot
Niv.5 : Tesla Autopilot
En Allemagne c’est en bonne voie. Mais ce n’est pas le fait d’une autorité : une association de consommateurs avait porté plainte, et le juge a condamné Tesla pour dénomination trompeuse, et a interdit à la firme l’utilisation du nom autopilot.
Tesla a fait appel, donc il y a encore deux instances avant une décision finale. Toutefois, il semble peu probable que le jugement soit contredit sur le fond, Tesla joue la montre.
https://teslamag.de/news/deutsches-gericht-verbietet-bezeichnung-autopilot-beachtet-tesla-urteil-29183
bof… l’humain est capable d’anticiper et de prévoir, une machine c’est très moyen.
je n’utilise plus le régulateur de vitesse adaptatif Tesla c’est une horreur, sauf dans les bouchons ou c’est reposant.
si tu roules sur la voie de droite avec une voiture qui arrive sur la bretelle d’insertion le régulateur Tesla met un grand coup de frein car il détecte un danger sur la droite qui se rapproche! idéal pour se faire défoncer l’arrière dans une circulation un peu packée!
même chose quand tu doubles, il faut absolument changer de file au moins 100 m avant la voiture sinon gros coup de frein au moment du dépassement…
bref le régulateur classique c’est bien mieux, mais je ne sais pas si c’est possible de dégrader le mode de contrôle….
L’anticipation et la prévision font partie du challenge actuel de l’IA.
Rappelez-vous néanmoins qu’a priori, vous n’utilisez que les fonctions les plus basiques mises à disposition par Tesla, et autorisées par le régulateur Européen.
Le FSD beta 9.1 fait peut-être déjà bcp mieux. Peut-être que les vidéos des beta-testeurs le montrent, je n’en ai pas regardé assez pour me le rappeler.
Ce que Tesla devrait surtout faire, c’est avoir un systeme de surveillance du conducteur, qu’il garde les yeux sur la route… C’est quasi criminel d’apeller un systeme autopilot et de n’avoir aucun systeme qui permet de securiser qu’il est utilise a bon escient (parce que bon, le capteur de couple sur le volant, niveau securite, pas terrible…)
n importe quoi les lignes de logiciel sont faites et valide par des humains.
Quand a la prise en compte de tous les facteurs exterieur ca n est pas possible et oui malgre nos potentiels defauts nous ne sommes remplacable point a la ligne
En fait les accidents n’ont rien d’inattendu…
Les capteurs Tesla ne fonctionnent qu’avec un différenciel de vitesse de l’ordre de maximum 40mph.
Au-delà de cette vitesse la voiture ne freinera pas.
Or si le conducteur arrive pleins pots sur autoroutes, et qu’un véhicule est immobilisé devant lui, il y a de très fortes probabilités que le différenciel soit supérieur à 40 mph, rendant le crash inévitable si le conducteur ne freine pas lui-même
pour donner un ordre de grandeur, les « humains » heurtent en moyenne chaque année, 150 véhicules d’intervention, dans un pays comme la France.
je n’ai pas fouillé mais on doit excéder les 700 impacts/an de ce type aux US (par proportion).
là on est à 11 collisions en 4 ans, soit 3 pas ans.
faudrait rapporter les 765 000 tesla au parc (roulant) ricain pour avoir un aperçu du coté sur ou sous acidentel dans ce cas très précis
Il y a parfois des déclarations surprenantes : on parle d’une voiture qui a vrai niveau d’autonomie (on laisse de côté le débat si c’est beaucoup ou pas beaucoup), mais on arrive quand même à se poser la question de « comment reconnaître quand les feux clignotants d’urgence d’une voiture de police garée sont allumés ? »
La réponse est a priori ultra simple pour un humain…