Accidents de voitures autonomes : faut-il avoir peur ?
Une des justifications même des voitures autonomes est le bond immense en sécurité routière qu’elles doivent apporter. Mais alors que les phases de tests croissent et se multiplient, les quelques accidents qu’elles ont provoqués font les gros titres. Comme on ne parle que des trains en retard et jamais de ceux à l’heure ?
90 % au minimum : c’est la part de responsabilité humaine généralement admise dans les accidents de la route. Autrement dit, la part immense des accidents dus à une erreur de conduite qui pourraient être évités par un véhicule conduisant de manière autonome. Pas de fatigue, pas d’inattention, de distraction, pas d’hésitation… l’intelligence artificielle coordonne les informations recoupées des différents capteurs de bord (caméras, radars, radars laser ou Lidars) et les informations externes, issues de la communication avec les infrastructures et les autres véhicules, voire les piétons et leurs smartphones… Un immense flot de données analysées en permanence et gérées par un processeur doué d’intelligence artificielle pour se montrer prédictif face aux situations de conduite et comportements des autres usagers et encore mieux éviter tout risque en agissant sur les freins, l’accélérateur et la direction. Idéal sur le papier, mais tellement complexe à mettre en place !
En attendant, nous sommes dans une période charnière de développement technologique, toutes les infrastructures de communication ne sont pas en place, loin de là, et les tests sur route ouverte, que ce soit en Europe ou aux Etats-Unis, ne sont autorisés qu’avec la présence d’un surveillant derrière le volant, prêt à reprendre la main en cas de bug. Du moins en théorie : il est extrêmement difficile de laisser une auto conduire d’elle-même des heures durant tout en étant soi-même prêt à entrer en action en une fraction de seconde le moment venu. C’est d’ailleurs justement ce qui a failli dans deux cas différents, deux accidents mortels survenus à quelques jours d’intervalle en mars dernier aux Etats-Unis.
Des accidents qui ont marqué les esprits
Le premier et le plus connu, c’est la Volvo XC90 testée par Uber qui, de nuit, a renversé et tué une femme traversant la route, poussant son vélo. Ni les capteurs de l’auto, ni la conductrice placée derrière le volant n’ont effleuré les freins devant cet obstacle soudain. L’auto aurait dû avoir une remontée d’information de ses capteurs et une réaction immédiate de sa centrale de calcul. Il semble que la faille empêchant toute réaction soit une combinaison de différents facteurs, les capteurs hésitant dans l’analyse de cet obstacle soudain, pourtant assez simple dans sa forme, son mouvement et dans un environnement sans perturbations. Une chose est sûre, la conductrice, quant à elle, n’était pas assez attentive au moment des faits et elle n’a pas touché aux freins à temps.
Pour certains, c’est la mise en place du programme de test d’Uber qui explique en partie cela, comme le professeur John Paul MacDuffie de l’université de Wharton (USA), directeur du programme d’innovation sur les véhicules et la mobilité, « Uber semble s’être précipité et avoir pris des raccourcis dans la mise en place de ses tests grandeur nature et cela pourrait avoir joué un rôle dans cet accident ». Il pense au fait que de deux personnes à bord, Uber soit passé à une seule personne, tandis que les Lidars ne sont placés que sur le toit du véhicule (et non sur les côtés) et que certains équipements de sécurité de l’auto soient débranchés au profit du logiciel en test.
A la suite de cet accident, Waymo (la branche véhicules autonomes de Google qui vient de commander 20 000 Jaguar I-Pace électriques) et Mobileye (capteurs spécialisés dans la conduite autonome, depuis peu racheté par Intel) se sont empressés de dire que leurs systèmes auraient réagi dans pareille situation.
Waymo n’est pourtant pas à l’abri d’un accident responsable, cela a été le cas en mai 2018 en Arizona, mais avec juste un peu de tôle froissée après qu’un minivan Chrysler Pacifica en test se soit accroché avec un bus en changeant de file dans une zone de travaux.
Et une voiture autonome peut aussi être victime d’une faute de conduite d’un autre conducteur évidemment, comme cela a été tout récemment le cas avec une autre auto de la flotte de Waymo en Arizona, percutée par une voiture folle. Les voitures autonomes de Waymo auraient été victimes en tout d’une trentaine d’accrochages non responsables au cours de leurs tests. Même si c’est difficilement comparable, cela veut dire que dans ce cas, le taux d’accident des véhicules autonomes en test est encore supérieur à celui des conducteurs américains (env. 4,2 par million de miles parcourus).
Le second accident datant de mars dernier et lui aussi à l’issue fatale (ici pour son conducteur, en Californie) n’a pas eu lieu lors d’un test grandeur nature officiel mais bel et bien à bord d’une voiture de série actuelle : une Tesla, dont le fameux système d’aide à la conduite Autopilot est, parmi tous les systèmes du marché, celui qui permet à l’automobile de prendre le plus largement la main sur la conduite.
Mais il s’agit toujours bien d’aides à la conduite semi-autonome tout au plus et non d’une conduite automatisée, ce que certains clients de la marque ont tendance à oublier avec ce système ambigu, tellement proactif et qualitatif qu’il inspire une confiance totale. Sauf lorsqu’il est leurré par de fausses alertes, comme peuvent en créer une réflexion sur la chaussée ou de mauvaises conditions météo par exemple. Après analyse du Model X incriminé, Tesla affirme que le système a rappelé de longues secondes visuellement au conducteur de reprendre le volant, ajoutant un avertissement sonore, et le constructeur d’ajouter que les véhicules équipés de l’Autopilot ont 3,7 chances en moins d’être impliqués dans un accident mortel aux USA.
Rappelons aussi que Tesla n’équipe pas ses voitures de radars laser (Lidars) qui peuvent lire en trois dimensions l’environnement immédiat de l’auto avec une précision de l’ordre du centimètre, mais choisit de se fier à un système de caméra et radars.
Un autre accident mortel avait eu lieu aux USA en 2016, le système de caméra de l’auto ayant été aveuglé alors qu’un semi-remorque traversait la route, tandis qu’un conducteur chinois de Tesla avait été victime la même année d’un accident mortel sans que l’on sache s’il était lié à l’utilisation de l’Autopilot.
Une longue route et beaucoup de questions
Alors que certains poussent déjà pour un déploiement de la conduite autonome à grande échelle, d’autres s’opposent à ce timing, comme Bryan Reimer, chercheur au MIT (la très prestigieuse université technologique américaine), cité par la MIT Technology Review : « Jusqu’à ce que nous comprenions mieux les phases de tests et de développement de ces technologies, nous devons prendre notre temps et travailler à chaque étape de l’évolution de leur développement », explique-t-il.
En attendant, les spécialistes continuent d’accumuler les kilomètres de tests grandeur nature, plus de 5 millions de miles (8 millions de kilomètres) depuis 2009 pour Waymo/Google. Selon l’institut de recherche américain Rand Corporation, des centaines de millions de miles de tests sur route seraient au bas mot nécessaires pour prouver la fiabilité de la conduite autonome. Autrement dit, des dizaines d’années de tests, bien trop de temps pour les parties prenantes. Il faudra donc compléter ces tests par des méthodes de développement prouvant de manière convaincante la maturité des systèmes de conduite autonome. Dans le même temps, Waymo projette de laisser des véhicules entièrement autonomes offrir un système de navette dès la fin de l’année.
Reste la question des décisions sous forme de dilemme devant une situation d’accident inévitable, lorsque différentes réactions de conduite peuvent provoquer différentes victimes, par exemple entre un choc avec un véhicule en travers de la route, plus dangereux pour les passagers de la voiture autonome, ou avec un piéton situé à côté… Des choix cornéliens pour des humains comme pour une intelligence artificielle. Pourtant, il semble que nous soyons plus facilement prêts à accepter l’idée qu’un accident d’origine humaine peut arriver plutôt qu’une machine en soit à l’origine.
Bilan
La conduite autonome, en plus de tous ses avantages en termes de pollution, d’utilisation du temps de transport, de réduction du trafic, offre un potentiel extraordinaire en matière de sécurité routière. Mais c’est également une technologie extraordinairement complexe à mettre au point. La route présente, par essence, des dangers et, même en conduite autonome, le risque zéro n’existera pas. Et c’est encore plus le cas pendant la phase de développement que nous vivons aujourd’hui.
Les accidents de voitures autonomes en chiffres
Il est difficile de répertorier de manière exhaustive les accidents impliquant une voiture autonome, mais pour résumer, voici ce que l’on sait à la fin juillet 2018 :
- Accidents mortels : 2 conducteurs avec Tesla en mode Autopilot (peut-être un troisième mais l’usage du mode Autopilot n’est pas prouvé), 1 piéton avec Uber.
- Accidents depuis les débuts des expérimentations (début des années 2010) : plus d’une trentaine d’accrochages mineurs non responsables pour les voitures de test de Google/Waymo, dont 1 avec des blessures corporelles. Au moins un accident impliquant une voiture autonome Uber, non responsable et sans blessés.Du côté de Tesla, il est plus difficile de quantifier le nombre d’accidents qui pourraient être liés à l’utilisation de la conduite semi-autonome offerte par l’Autopilot. Il semble qu’un accident impliquant une Model S qui a heurté une voiture de police stationnée (heureusement vide) en mai dernier à Laguna Beach pourrait être un de ces cas. On ne sait pas non plus quels pourraient être les autres accidents liés aux aides à la conduite d’autres véhicules de série actuels.
Photos (5)
Déposer un commentaire
Alerte de modération
Alerte de modération