Accident Uber : paramétrage de l’autonomie mortifère

Le décès accidentel d’une personne, causé par un véhicule autonome de Uber, ne serait pas dû à un manque de visibilité de la voiture mais au paramétrage de son logiciel. Le système aurait en effet choisi de ne pas éviter la collision. C’est en tout cas ce qu’indique le site américain The Information, citant des sources proches du dossier.

Réglage des faux-positifs : tout un art

Si les capteurs du véhicule ont bien détecté la piétonne en train de traverser la route, le logiciel d’Uber aurait décidé de ne pas réagir immédiatement.

Selon The Information, cette décision est la résultante d’un paramétrage logiciel offrant au véhicule autonome une large « tolérance » pour ignorer  de « faux positifs », c’est-à-dire des obstacles potentiels – en les estimant non significatifs – tel, par exemple, un sac en plastique qui volerait sur la route. Au contraire, ces événements ne doivent pas déclencher de surréaction du véhicule qui pourrait mettre en danger des passants ou le conducteur.

Un réglage trop permissif

Les nombreux capteurs qui équipent les taxis autonomes de Uber actuellement en test sont parfaitement adaptés à une vision nocturne. La mise en œuvre conjointe de caméras, lidars et radars est en effet infiniment plus puissante que l’œil humain.

Mais l’équipe qui a mis au point le logiciel du véhicule a semble-t-il été trop permissive. Le réglage – pas assez fin – a abouti à un certain manque de réactivité du véhicule face à l’événement. Car au final, les capteurs n’ont pas identifié la piétonne comme une personne, mais comme un objet sans danger potentiel, qu’il ne convient pas d’éviter à tout prix.

Si la voiture a bien vu la piétonne poussant son vélo sur une voie rapide, le logiciel qui l’équipe n’a pas choisi d’ajuster sa trajectoire ou de freiner. L’élément visualisé a été considéré comme ne présentant pas de danger immédiat.

Suspension des tests

Rappelons que suite à cet accident mortel, Uber avait annoncé la suspension de l’expérience menée avec les véhicules autonomes en cours dans les villes de Pittsburgh, Phoenix, San Francisco et Toronto au Canada.  Plus largement, la collision avait semé le doute sur la sécurité liée aux véhicules autonomes et à leur danger potentiel.

Le site Quartz affirme quant à lui que les voitures autonomes Uber ont été impliquées dans de multiples incidents depuis leur introduction dans les rues de Pittsburgh (Pennsylvanie) fin 2016.

Sources : Quartz, The Information, Reuters

Crédit Illustration : Uber

(10 commentaires)

  1. Donc le démon n’est pas l’IA elle-même mais l’ingé qui, sous ordres, a décidé de ne pas prendre en compte les « faux-positifs ».
    D’autres sont réglés plus drastiquement (comme la Mustang qui a tendance à freiner de très loin).

    1. autre « démon » possible : la recherche du confort ….
      certains analystes notent en effet que Uber est une entreprise de transports de passager et …. qu’elle fait donc tout pour que la conduite autonome de ses véhicules soit confortable. Cela signifie que les paramètres de le conduite autonome sont ajustés avant toute chose pour que le transport soit agréable. Aujourd’hui, les autres entreprises qui travaillent sur des véhicules autonomes admettent que les réactions de leurs prototypes peuvent être brusques.
      pour Uber confort avant sécurité ???

      1. Confort mon c*l, c’est surtout pour que la course soit moins longue. Ecraser des gens au lieu de s’arreter pour améliorer la productivité.

    2. Terminologie :
      Faux Positif => Considéré dangereux à tord
      Faux Négatif => Considéré inoffensif à tord

      Alors cela se complique, ici, considérant un Vrai Positif comme un Faux Positif qu’ils espéraient être Vrai Négatif ils ont eu un Faux Négatif…

      Bon c’est le moment de prendre les Alka-Seltzer, à pousser avec une triple dose de whisky 😉

    3. Sans vouloir dédouaner les équipes de développement, certes, elles ont peut-être agi ainsi par fainéantise ou incompétence, mais on peut aussi penser que les ingénieurs ont dû faire des compromis parce que les capteurs présents ne sont pas assez précis!
      Soit la technologie n’est pas assez mature (ce qui serait alors assez inquiétant de savoir qu’on lance des véhicules avec des conducteurs/passagers qui ne sont pas des personnes expérimentées – ce qui est le cas dans cet accident), soit la technologie existe, mais pour obtenir un niveau de précision satisfaisant, il faudrait considérer des coûts bien plus élevé!

  2. Les avions sont certifiés, suivant des protocoles de justification et de tests drastiques et standardisés , par une autorité indépendante.
    Je ne comprends pas comment il n’en est pas de même pour les voitures autonomes . Ne laissons pas les inges décider du bon paramétrage.

    1. Étant pilote moi même, il y a une variable importante à prendre en compte, même lors d un atterrissage automatique, nous sommes 2 pilotes à surveiller l autopilot, nous avons un entraînement tout les 6 mois, et savons exactement ce qu est sensé faire l autopilot aux différentes altitudes et quels modes doivent être activés. Quelle formation pour les conducteurs de véhicules autonomes?

  3. On peut ajouter aussi que le ciel est plus vaste et qu’il y a moins d’aéronefs au kilomètre cube que de voitures au mètre carré

  4. Toyota utilise un lidar et des capteurs suffisamment précis pour savoir de quel côté regarde un piéton.

    Les faux-positifs arrivent souvent avec les piétons qui ne bougent pas sur le trottoir.
    Un piéton qui regarde vers la route, danger (tout le monde le sait et a tendance à se tenir prêt).
    Piéton qui regarde à l’opposé de la route, on est déjà plus tranquille.

    Enfin bref, avec la batterie de capteurs qu’ils ont, il y a forcément un souci. Car à 60m (les capteurs portent normalement à plus de 100m) même un « objet » non dangereux qui semble filer tout droit vers le passage de la voiture doit être considéré. On ne parle pas comme Quartz d’un sac plastique qui vole, mais d’un obstacle de bonne taille tout de même. Et a fortiori à 40, 30, 20m…

    Maintenant à savoir pourquoi le logiciel a décidé de ne pas considérer la personne.
    Personnellement je préfère que l’on soit prudent (personne ne parle de piler sur place hein) avec des faux positifs (ou vrais négatifs plutôt 😉 ) que de devenir un danger sur la route.

  5. L’excuse est facile, c’est plus un problème matériel, capteur, puissance de calcul, logiciel.
    Bref pas encore mature, la course à la pub gratuite vient donc de tuer.
    Pour l’heure il n’y a pas une once d’intelligence artificiel dans cette voiture.
    Un vrai conducteur aurait très bien pu voir la cycliste, juste par une vision partielle de la personne qui aurai attiré son attention, puis permis de la détecter ou de ralentir par précaution (ça c’est de l’intelligence). !!!!

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *