Accident mortel d’Uber: le logiciel ne pouvait pas reconnaître un piéton hors des clous

Souvenez-vous, en mars 2018, une voiture Uber en mode autonome avait tué une piétonne. Le régulateur américain des transports NTSB indique que la femme en question avait bien été détectée, mais que le logiciel n’était pas programmé pour la classer en tant que piéton.

L’organisme a publié un nouveau rapport avant une prochaine audition pour déterminer les causes probables et les responsabilités de cet accident qui a coûté la vie à la piétonne et mis un coup d’arrêt temporaire aux essais Uber.

Dans un premier temps, on se demandait si la technologie avait bien détecté la personne qui traversait la route dans le noir au petit matin, avec son vélo à côté d’elle. Dans un rapport préliminaire, la NTSB indique que la voiture a bien « vu » la femme de 49 ans, 6 secondes avant le choc. Largement suffisant pour actionner un freinage d’urgence.

Oui, mais voilà, désormais, l’organisme affirme que la technologie d’Uber « ne prenait pas en compte l’éventualité de piétons traversant hors des clous », ajoutant : « le système ne l’a jamais classée comme piétonne » mais comme un « objet ». Un piéton hors des passages protégés ? Cela existe ?

La voiture ne considérait pas qu’un piéton pouvait traverser hors des passages protégés

Il a fallu attendre le tout dernier moment pour que le logiciel décide d’effectuer ou non un freinage. Et ce fut « non » car un tel freinage ou une manœuvre d’évitement aurait mis en difficulté le véhicule (un SUV NDLA). La seule chose qu’a faite le véhicule est de lancer une alerte sonore. Mais, il était largement trop tard pour que la conductrice réagisse (qui plus est, elle était absorbée par son téléphone NDLA).

Depuis, Uber a mis à jour son logiciel pour prendre en compte ces cas. Les tests ont repris plusieurs mois après, dans d’autres villes. « Dans le sillage de cette tragédie, l’équipe a développé des améliorations essentielles pour accorder encore plus de priorité à la sécurité », a indiqué une porte-parole d’Uber dans un message transmis à l’AFP.

Entre septembre 2016, date des premiers tests, et mars 2018, date de l’accident mortel, les voitures autonomes Uber ont été impliquées dans 37 accidents dont « seulement » deux de la faute du véhicule.

Le délicat équilibre entre prudence et témérité

C’est évidemment peu. Mais, contrairement à un conducteur humain à qui on accorde (trop facilement ?) le bénéfice de l’erreur, on attend des véhicules autonomes une perfection totalement illusoire. En effet, soit les véhicules autonomes sont réglés pour s’arrêter à la moindre alerte et ils seront comme des chatons apeurés, hésitants et maladroits, soit on introduit une dose de « témérité » pour que le véhicule ne s’arrête pas au moindre papier volant ou au moindre piéton au bord du trottoir, et on prend le risque d’accidents.

Outre la tragédie évidente du décès de cette piétonne, on touche ici un point essentiel des véhicules autonomes. A savoir, un logiciel doit-il choisir entre un piéton et ses occupants ? En faisant une manœuvre, le véhicule pourrait sauver la vie du piéton, mais tuer, ou blesser, son ou ses occupants. En ne faisant rien, les occupants ont la vie sauve mais pas le piéton.

Des considérations philosophiques que ne se poseront les logiciels que si on les programme pour cela. Ici, ce n’était visiblement pas le cas. L’audition pour déterminer exactement les causes de cet accident se tiendra le 19 novembre prochain.

Qui est responsable dans un tel cas ?

Outre les considérations techniques et philosophiques, il reste à déterminer les responsabilités dans un tel accident. Un constructeur de véhicule autonome (ici Uber) est-il à incriminer dans l’accident, ou bien est-ce le conducteur « de secours » qui aurait dû être plus alerte au lieu de regarder « The Voice » sur son téléphone ?

Les procureurs de l’Arizona ont décidé en mars 2019 que Uber n’était pas criminellement responsable de ce drame. En revanche la conductrice de « backup » peut toujours être poursuivie.

Pourtant, à la vue de ce nouveau rapport de la NTSB, il semble étrange que l’on exonère de toute charge un constructeur automobile estimant qu’un piéton ne peut pas traverser en dehors des clous et codant son logiciel ainsi. Ce n’est pas un bug, c’est un choix délibéré.

Avec AFP, illustration : Uber

(32 commentaires)

  1. Non, c’est pas au point, point.
    Il n’y a pas de programme adapté pour remplacer un humain et aussi des limites techniques a dépasser.
    L’IA c’est pour l’heure de dressage artificiel très limité et manifestement trop limité chez Urber.
    La voiture autonome ne sera jamais sur les routes dans les délais comme cela a été proclamé, un jour certainement mais pas de suite.
    Donc les responsables de chez Uber devraient être juger pour meurtre, car ils sont responsables de faire circuler des systèmes pas assez évolués pour rouler sur routes ouvertes.
    Tant pis pour la pub et les dollars.

    1. Est ce bien de l’IA ?
      Ça semble plus être un automatisme complexe (le nombre de situations différentes est pharamineux) associé à une base de données (routes, situations) qui s’enrichit jour après jour.
      L’intelligence artificielle serait de pouvoir raisonner à partir de presque rien. Tout le monde a affronté des multiples situations sur la route à partir de ses simples 20 ou 30 leçons de conduite y compris avoir évité un piéton en dehors des clous.
      L’intelligence artificielle, tu lui donne les règles des échecs, elle perd ses premières parties, invente des combines avec ses expériences, mémorise son expérience et fini par être imbattable.
      Un ordinateur programmé joue aux échecs en ayant mémorisé précédemment 5 millions de parties plus celle qu’il joue.
      La différence entre les 2, c’est le raisonnement ou la réflexion versus une arborescence de choix issue d’une base de données (si X alors Y, si Y alors Z, etc …)

      1. Non l’IA tel celle en question sur les voitures autonomes ce n’est qu’un bête apprentissage d’après des exemples donnés par des humains.
        L’IA comme celle de l’homme n’existe pas où alors dans des labos avec des exemples précis.
        Sauf que parler d’IA qui n’en est pas, cela fait vendre et rêver.

        1. Ici ce n’est pas l’IA qui est fautive mais l’équipe qui a décidé de ne pas considérer comme piéton un sujet qu’elle a reconnu.

          Oui les réseaux de neurones sont des machines à apprendre. Mais exactement comme l’est le cerveau humain.
          Mettez un bébé dans un environnement sans apprentissage, il ne saura « rien » faire. L’Homme comme beaucoup d’animaux fonctionnent grâce à l’acquis et non à l’inné.

          Une IA type réseau de neurones c’est quoi ? Un algo qui va avoir besoin qu’on lui montre les choses.
          On prend un échantillon d’images en lui indiquant ce que l’on voit sur l’image, à quel endroit. Une fois l’échantillonnage « suffisant » (comme le « certain temps » que met le fut du canon pour refroidir selon Fernand Raynaud), la machine est capable de regarder n’importe quelle image et de reconnaître ce qu’on lui a appris à reconnaître.

          Ce qu’on ne lui a pas appris à reconnaître est du « bruit ».
          Un cerveau humain a une capacité d’apprentissage hors norme. Pour qu’une IA fasse la même chose il faut des capacités de calcul qui n’existent pas actuellement (et qui n’existeront pas avant l’ordinateur quantique qui semble arriver si on en croit les derniers résultats de Google).
          Mais elle sait très bien reconnaître ce qu’on lui a appris…

          Ici deux possibilité :
          – on lui a appris qu’un piéton est forcément accompagné de son passage protégé (peu probable)
          – on lui a appris à reconnaître un piéton à côté de son vélo, et un passage piéton (les deux séparés). Mais « on » a décidé que pour qu’il y aie action, il faut que les deux soient réunis.

          Et là ce n’est plus l’IA mais le « bête » logiciel.
          Si….sinon….Finsi.

          Cette approche est « stupide », à la fois car l’IA pourrait très bien apprendre les situations et les jauger (comme on apprend au permis) et aussi car c’est de l’algo immuable. Rien d’apprenant.

          Maintenant l’IA est-elle une intelligence ? Oui.
          Elle apprend. Et elle peut même communiquer. Prenez deux réseaux de neurones, ils peuvent échanger leur apprentissage et bien plus vite que deux humains qui discuteraient.
          L’apprentissage est alors colossale…

          L’IA va-t-elle supplanter l’Homme ? Non. Car encore une fois, en l’état actuelle, l’IA est limitée dans un domaine.
          Ici reconnaître tout un tas d’obstacles, de panneaux, de signes, etc. Mais cette IA est incapable de jouer au jeu de Go car on ne lui a pas appris.

          L’IA peut-elle « inventer »…et bien oui. Pas besoin d’aller dans les labos. Les IA qui créent il y en a en musique, en dessin, dans les jeux, etc.
          Comment « crée-t-on » ? L’Humain ne sort pas un truc de son chapeau, il a forcément vu un truc, appris un autre, etc pour arriver au processus de « création ». La création n’est pas innée là non plus.
          Cela peut naître d’un accident (appelez cela le hasard) mais pas de « rien ».

          Pour ce qui est de la conduite, en environnement contraint (autoroute par exemple), les possibilités de voir par exemple un bateau sont très faibles.
          Donc pas besoin d’apprendre à la voiture à reconnaître un bateau. Idem pour tout un tas d’objets qu’un humain va savoir reconnaître mais que la machine va ignorer.
          Bref l’IA est bêtement intelligente (ou intelligemment bête ?).

          Par contre une voiture autonome peut voir dans le noir, le brouillard, à 150m, peut regarder à 360°x180° etc pour peut qu’on l’équipe des bons instruments 🙂 et ça un humain aura du mal.

          1. Sauf qu’un bébé, va faire des bulles, toucher ses pieds, goutter sa main, gigoter. Sans qu’on lui demande. Il va apprécier, détester, être curieux, sans qu’on lui dise quoi penser. Et pour conséquence il va générer des situations, générer de l’instabilité sans que l’on lui dise. Et donc il va continuer d’apprendre de ces nouvelles situations très simples, de manière autonome.

            Évidemment le savoir se partage, et couper un bébé du reste de ces congénères ou le priver de senseurs, l’handicapera dans son apprentissage. Car il n’aura pas appris à « cotoyer » d’autres humains, ce qui le modèlera totalement différemment. Il pourrait apparaître totalement « retardé » selon nos standards, mais sûrement pas dénué d’intelligence.

            Pour l’instant les logiciels automobiles ne font que les calculs qu’on leur demande de faire malgré toute la sémantique cérébrale qu’on utilise pour les baptiser. Parfois un feux de camp devient un incendie de forêt, sans qu’on l’ait voulu ou qu’on puisse le dompter. Il n’est pas devenu plus intelligent que nous. Il a juste réagit mécaniquement à son environnement, un environnement que l’on ne maîtrise pas.

            WATSON qui parait plus subtil en humour ou plus fin psychologue que nous, est paramétré pour chacune de ces applications. Et son « auto-aprentissage » est lui aussi paramétré en fonction des domaines choisis. Mais effectivement grâce à sa grosse mémoire et sa grande rapidité de « réflexion », il bat les humains dans la rapidité et la profondeur de ces comparaisons.

            Cela dit tout ce travail est très intéressant et va donner des résultats qui feront énormément avancé la connaissance humaine, et grandement nous soulager, car beaucoup de métier « intelligent », ne sont que de la comparaison de mesures avec des abaques. Comme en médecine par exemple, cœur de cible de WATSON, comme par hasard.

            AMHA

        2. @georges : « L’IA comme celle de l’homme n’existe pas … »
          Tant mieux, parce que l’intelligence de l’homme (l’humain) au volant et bien la dernière chose à essayer de reproduire.

        3. Par définition l’intelligence ne peut être artificielle.
          Il serait peut-être plus judicieux de parler de mémoire artificielle.

      2. IA est pour l’instant un terme marketing. Quand on promeut une technologie, quand on cherche des fonds etc… il faut vendre son produit, donc il faut aussi une part de marketing et de surenchère.

        Aussi intelligent qu’une balance mécanique sur laquelle on met un poids et se retrouve en déséquilibre. Très intelligemment elle détecte le déséquilibre et nous le fait savoir en déplaçant son aiguille. Plus le déséquilibre de poids entre les plateaux est fort et plus le déplacement de l’aiguille est important. Tout cela de manière « très intelligente »… ou simplement mécanique.

        Comme les « systèmes intelligents », qui existent depuis des décennies. Souvent de simples fonctions mathématiques de moyennage. Un peu comme un afficheur d’autonomie, qui s’adapteraient à notre style de conduite.

        L’IA qui nous est vendue à toutes les sauces prend en compte plus de paramètres avec une masse de données bien plus importante. On paramètre des fonctions de corrélation. Pour comparer la réalité et des exemples de situation, (des jeux de données d’apprentissage). Mais au final le paramétrage donc l’apprentissage de la machine est fait par des « data scientistes ».

        La machine n’apprend pas en roulant comme on le fait en auto école. Elle compare les mesures aux schémas d’exemple. En fonction du résultat elle applique les décisions paramétrées par les programmeurs. En parallèle elle engrange des données, qui serviront à définir d’autres modèles de situation.

        Toute l’intelligence réside dans la capacité des data scientistes à définir les règles et les modèles en couvrant tout le spectre de situation, sûrement pas à mesurer comparer et appliquer.

        AMHA

    2. Pas sur qu’un humain l’aurai evite… Mon avis, c’est que la faute est celle du pieton, traverser sans eclairage, de nuit, entre les voitures… Je vais etre mechant mais c’est du Darwinisme.
      Les systemes de conduite autonome ne seront pas pire que les singes que nous sommes au volant.

    3. Quel meurtre? Un meurtre c’est quand on a l’intention de donner la mort. Ici UBER n’avait pas l’intention de tuer, ni de faire du mal. Même si leur système est perfectible, ils ont rajoutez une sécurité. La même sécurité qu’il y a dans tous les véhicules roulant actuellement : un humain au volant.

      La cause de l’accident est simple. Le défunt a choisit de traverser une route en dehors des passages piétons. C’est un tord. Il a choisit de traverser la nuit alors qu’un véhicule arrivait. C’est un péril.

      On peut légitimement reprocher à la personne derrière le volant de ne pas avoir été aux commandes. Mais cela le dédouane pas la cyclo-piétonne du fait qu’elle a provoqué l’accident. Elle aussi n’a fait aucune manœuvre pour éviter l’accident alors qu’un véhicule tout feux allumé donc très visible, avec une trajectoire totalement logique et prévisible arrivait sur elle.

      La meilleure façon d’éviter l’accident eut été de ne pas le provoquer.

      AMHA

  2. Les explications paraissent quand même bien légères… donc le système a déterminé que c’était un objet, il fonce dedans quand même : si c’est du carton, tant mieux, si c’est du béton… tant pis ! Il faudra aussi prévenir les sangliers de bien traverser dans les clous !

    D’ailleurs, je ne connais pas les subtilités du code de la route américain, mais en France, un piéton peut traverser hors des passages piétons dès lors qu’il n’y en a pas à moins de 50 mètres… en toute légalité.

    Et sinon, le système de conduite autonome est sacrément balèze pour savoir détecter les passages piétons sur la chaussée !

    1. C’est aussi évoqué dans le film I-Robot.
      Dans l’accident de voiture à l’origine du traumatisme de Will Smith, l’humanoïde évalue la situation et estime qu’il a plus de chances de survie que la jeune fille dans l’autre voiture.
      L’humain fait des choix moraux, culturels, etc. la machine n’est pas programmée pour cela.

      1. La machine choisira ce qu’a programmé l’humain. Donc c’est l’humain qui devra trancher ce dilemme en amont.

        Hélas, est-ce que les humains veulent faire le choix? Nous aurions la conscience plus tranquille si la machine faisait elle-même le choix.

        Et tout les humains ne feront pas le même choix, même si une grosse tendance pourrait ce dessiner. Et surtout est-ce que les humains feraient le bon choix?

    2. J’imagine que derrière c’est que des calculs de probabilité (x% de tuer mon équipage si je fais rien, y% de chances de tuer le piéton si je fais rien).
      Et donc le programme changera de trajectoire ou pas en fonction des probabilités.
      Et comme x sera toujours différent de y, il y aura jamais de « dilemme ».

    3. En fait, ces questions ont déjà été tranchées.
      Dans les systèmes d’assistance à la conduite et systèmes semi autonomes, les voitures d’aujourd’hui ont déjà des règles de priorisation.
      Prenons une voiture avec un système d’aide à l’évitement, qui va braquer le volant avec vous en amplifier l’angle de braquage, mais est aussi capable de donner une résistance dans le volant pour ne pas sortir de votre voie.

      La voiture détecte un risque de collision frontale, inévitable, avec un piéton devant vous. Mais également une voiture arrivant en face, dans la voie opposée, celle que vous choisissez pour éviter le piéton.
      La règle est de toujours tenter de sauver une vie dans une situation pourrie d’avance. La voiture vous assistera pour vous envoyer dans la caisse qui arrive en face: vous avez en effet plus de chance de survivre à l’impact que le piéton.

      On peut remplacer le piéton par un cycliste ou 2 roues. Ca marche aussi.
      En fait, la caméra et le radar embarqués vont mesurer la taille de l’objet à éviter. Plus il sera plus petit que votre voiture, plus la voiture tentera de l’épargner, quitte à vous planter dans le décors. Car vous, vous êtes ultra protégés (mais pas invincible ; tant pis)

      En revanche, vous foncez droit dans un camion/un mur. Vous tentez de l’éviter par la gauche, où se trouve un cycliste à l’arrêt. La voiture va résister pour vous empêcher de foncer et tuer à coup sûr le cycliste. Et tant pis pour vous.

      A ma connaissance, les voitures d’aujourd’hui ne braquent pas le volant totalement seules. Elles vont uniquement nettement amplifier l’angle de braquage si vous avez engagé vous même une manoeuvre d’évitement.

  3. Il faut aussi mettre sur le banc des accusés le fabricant du téléphone et/ou le fournisseur d’accès qui ne bloque pas l’usage de celui ci lorsque l’on traverse une chaussé !

  4. Même si je comprend votre réflexion, je ne suis pas sûr que l’humain fasse des choix moraux ou culturels. Dans l’urgence il fait surtout ce qu’il peut pour sauver SA vie. Instinct de conservation, survie de l’espèce …

    1. @gigi4lm : en état réflexe oui.

      Mais si on pose la question à des humains de différents pays, de différentes cultures :
      – vous allez avoir un accident avec votre voiture. Un piéton traverse tirant un chien derrière lui. Impossible de s’arrêter à temps, vous allez forcément écraser l’un ou l’autre. Lequel « choisissez-vous » ?

      Dans bcp de cultures on va dire « le chien » car on va considérer que l’animal « compte moins ». Mais pas forcément partout.
      Maintenant on remplace le chien par une vache….mêmes réponses ?
      Et si le piéton est un vieux ? Une femme, un homme, etc. ?

      Quand on se retrouve à 1 m du choc, évidemment, on fait « ce que l’on peut ». Mais ici on parle programmation du cerveau, qu’il soit naturel ou artificiel.
      Une machine reproduit ce qu’on lui a donné comme code.

      Tiens aujourd’hui (ou hier) un homme s’est jeté dans la rivière en crue pour sauver une fillette de 8 ans.
      Pourtant il a risqué sa vie. C’est quoi qui le pousse à sauter au péril de sa propre vie ? L’instinct ou la morale/culture ?
      Et si à la place de la fillette c’était un chien ?
      Et si à la place de la fillette il y a une fillette et un homme ? Une fillette et un garçon ? Deux fillettes, etc. Comment choisit-il ? Choisit-il d’ailleurs ?

      L’homme naturel n’existe plus (ou presque plus) sur la terre et est influencé par sa culture, son environnement de vie, etc.
      On ne va pas faire du Rousseau de comptoir 🙂 (l’Homme naturellement bon mais corrompu par la société/culture).

  5. et quand les voitures autonomes seront vendues en masse, ce ne sera toujours pas le fabricant de la voiture qui sera fautif ? Qui alors : nous le conducteur comme ici ?? Là, encore, c’est des prototypes, et c’est normal qu’il y ait un conducteur qui veille au grain (on se demande bien pour quoi faire d’ailleurs, quand on voit cette conductrice irresponsable..). Mais vous croyez vraiment que ces multinationales qui font déjà tout pour ne pas payer d’impôts dans le monde, vont payer quand leurs voitures seront responsables d’accidents ?? Faut vraiment être naïf pour le croire un instant.
    Regardez déjà pour les assistances actuelles (aide au maintien dans la voie, régulateur de vitesse adaptatifs..), ils se déresponsabilisent déjà dans les notices techniques ! Alors quand les « autonomes » seront vendues comme tel, ils mettront en tout petit, à la fin de la notice : « nous ne pouvons être tenus pour responsables du manque de vigilance du conducteur car, comme le notifie le code de la route, celui-ci doit toujours rester maître de son véhicule ». Dont acte. Et le mythe de la voiture autonome aura alors fait long feu…

    1. quand ce sera banalisé se sera traité comme un accident de la route, pas comme un incroyable fait divers.

      Volvo a déjà tranché, en annonçant que sur ses futurs véhicules autonomes, en mode autonome, c’est le constructeur et non l’occupant qui est responsable s’il est désigné coupable selon les règles du code de la route, simplement parce qu’à ce moment c’est « le constructeur » qui conduit.
      Point barre.

      A ce titre, le constructeur envisage de souscrire à une assurance spécifique, ce qui représente au passage que dalle par véhicule et c’est très bien comme ça. On se prend un poil trop la tete sur ce sujet pour rien je trouve.

      Dans le cas qui nous occupe, un piéton traverse de nuit et sans éclairage une 2×2 voies en poussant un vélo. le véhicule est jugé non responsable de l’accident, et c’est la logique même.
      Il aurait pu faire mieux ? sûrement. Moi en rentrant du boulot à 21h pas sûr et je ne serais pas non plus jugé responsable dans cette situation.

  6. Et après ça, on veut nous imposer le freinage automatique d’urgence en 2020!!! Quand va t’on comprendre qu’il y en a marre de toute cette fumisterie qui soit déresponsabilise le conducteur soit peut dysfonctionner au mauvais moment? Mais, bon c’est plus vendeur que de travailler sur l’allègement des véhicules, l’efficacité des freins, des pneus… Je prédis dans les années à venir un grand succès des newtimers…

  7. Si c’est logiciel permet de faire un peu de sélection naturelle , c est tout bénef. Si on doit maintenant établir le facteur humain imprévisible qui ne respecte rien , l IA va devenir dingue. ?

    Si ça peut permettre de respecter les règles correctement tant mieux, sinon la sanction sera nette et précise. Bravo Uber

    1. sacré juncker, encore un coup dans le nez !
      Blague à part, merci de montrer le cynisme que les … d’en haut pensent tout bas.

  8. Petite opinion : un obstacle de la taille de celui rencontré, que ce fut un piéton ou pas, aurait DU entrainer un freinage d’urgence.
    Une infinité d’objet létaux pour les occupants aurait pu appartenir à la définition et à la surface apparente de la personne, de la tôle arrachée d’un toit, une marchandise tombée d’un camion, un motard qui coupe la route ou que sais-je.

    même une toile opaque qui envelopperait la voiture serait extrêmement dangereuse et nécessiterait à minima un gros coup de frein

    Je pense qu’il y a chez ces gars un problème de paradigme : ça manque de lois « bas niveau » qui précèdent l’analyse plus intelligente par deep learning. Hors pour gagner du temps on passe à l’apprentissage massif par deep learning exclusif, résultat toutes les occurrences, les événements n’ayant jamais fait partie de l’apprentissage ne sont pas traitées et peuvent visiblement être ignorées alors qu’un simple freinage automatique d’urgence à radar, ou même un régulateur adaptatif aurait fait le job.

    Si ça se trouve le régul adapatif et le city safety de la XC90 du test, s’ils n’avaient pas été désactivés, auraient sauvé la vie de la SDF

  9. totalement.
    Le logiciel a failli, c’est un fait, il y a AMHO une erreur de règles bas niveau qui au vu de l’enquète apparait maintenant.
    Mais du point de vue des responsabilités clairement il y a une mise en danger quasi volontaire de la victime et une défaillance de l’humain en backup.
    Le soft est là précisément pour être testé et amélioré, uber n’a rien promis et c’est pour ça qu’il a mis un backup derrière le volant.
    Je trouve la décision de justice logique.

  10. Pour Volvo, je le savais depuis qu’ils veulent le 0 mort, mais concrètement, ça sera une autre histoire avec l’Autonome. On verra bien !

    Par contre, tu te trompes sur la responsabilité du cycliste.
    Petit rappel :  »
    La loi Badinter du 5 juillet 1985 règlemente l’indemnisation des victimes d’accidents.
    Reflet d’une époque où les cyclistes peinaient à être indemnisés, elle leur offre une protection non négligeable. Le cycliste n’étant pas un conducteur de véhicule terrestre à moteur, il fait effectivement partie des victimes protégées sans restriction par le texte comme le piéton par exemple.
    De fait, pour que la responsabilité du cycliste soit totalement engagée, il faudra prouver que :
    • sa faute est inexcusable
    • sa faute est la cause exclusive de l’accident
    La pratique : la responsabilité de l’automobiliste
    Le plus souvent, aucune faute ne sera retenue contre le cycliste accidenté.
    Quelque soit l’importance de son imprudence ou de sa maladresse, c’est surtout la responsabilité de l’automobiliste qui sera recherchée et son assurance sollicitée. La raison ? Il doit en toute circonstance resté maître de son véhicule. Une exigence qui ne vaut pas pour le cycliste.
    Ce régime de responsabilité exprime aussi l’idée selon laquelle l’automobiliste doit systématiquement être considéré comme responsable de l’accident pour avoir introduit l’objet dangereux (ndlr : la voiture) dans l’espace public. »

    Donc, déjà une exception déclarée pour ce proto Über… La première d’une longue série.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *