Par §ron178DF
le debut de la fin, ou le debut d'un changement des mentalites et la fin de l'ancienne legislation?
Tesla : la Model S autonome sous investigations
Déposer un commentaire
Par §ron178DF
le debut de la fin, ou le debut d'un changement des mentalites et la fin de l'ancienne legislation?
Par parlons-en
Devait être très haut ce PL pour que ni les radars ni les caméras ne le captent!
Par §Gro806Iy
j'ai entendu l'info sur France info ce matin: selon Tesla, le mec ne tenait pas le volant en mode auto pilot hors il est bien précisé dans le manuel qu'il toujours garder les mains sur le volant au cas où, voilà la défense de Tesla , circulez y a rien à voir, difficile prouver que l'automobiliste tenait ou pas le volant au moment de l'accident
Par §Fre444uA
Oui, sauf que c'est un accident avec un véhicule SANS autopilot, donc il y a de forte chance que la Tesla ne soit pas responsable de l'accident, donc RAS.
Le jour ou il y aura le 1er accident entre 2 voitures avec autopilot. Là ça sera drole de voir comment les juges et politiciens feront pour solucionner ce problème.
Par §Fre444uA
En réponse à parlons-en
Devait être très haut ce PL pour que ni les radars ni les caméras ne le captent!
Aux US les barres anti-intrusions ne sont pas obligatoires (en France ça l'est et je crois qu'en Europe aussi). Bref techniquement il est possible d'avoir un camion en travers en face ,et qu'un radar ne détecte rien (tout dépend bien sûr jusqu'à quelle hauteur détecte le radar...).
Par gxahafair
je le redis, je suis contre ce gadget !! celui qui ne veut pas conduire, il prend le train ou l'avion !!
Par parlons-en
En réponse à gxahafair
je le redis, je suis contre ce gadget !! celui qui ne veut pas conduire, il prend le train ou l'avion !!
OUI Chef!
Par §geo304RF
En réponse à gxahafair
je le redis, je suis contre ce gadget !! celui qui ne veut pas conduire, il prend le train ou l'avion !!
Est-ce que l'on t'oblige à l'utiliser ?
Toutes les statistiques démontreront que l'électronique est bien plus sûre qu'un être humain, aussi bon conducteur soit-il ?
Par parlons-en
Bon ceci dit, faudrait être dingue pour voir un PL se mettre en travers de la route et se dire: "C'est bon l'autopilote va gérer ça"
Par le tamanoir
Triste accident.
Il démontre néanmoins ce que l'on savait déjà: Le robot non plus n'est pas infaillible.
L'analyse détaillé de ce drame permettra peut-être d'améliorer les systèmes de pilotage autonome, mais espérer que la disparition des conducteurs humains entraînera celle des accidents automobiles est et restera une utopie...
Par nicob95
le comportement de ce vilain camion n'était pas rentré dans les lignes de codes de l'autopilot? du coup pas de réaction? comment ça un camion coupe la route, le feu était vert!
mais pour prévoir tous les comportements tordus, illogiques, par manque d'attention, de compétence, par excès d'alcool, de drogue, voir volontaires et j'en oublie, bah ils sont pas rendus!!!
Par §Qua047xc
c'est quel niveau d'autonomie chez tesla?
Par p.martin.pm
En réponse à parlons-en
Devait être très haut ce PL pour que ni les radars ni les caméras ne le captent!
Ils ne captent pas un véhicule qui vous coupe la chique a l'improviste.De même que les feux rouges placés trop haut.(vu a la tv)
Par gordini12
Cela était à prévoir!
Voila un accident qui va probablement calmer les ardeurs des personnes qui voyaient des véhicules autonomes pour 2020. Certains vont enfin prendre conscience de la difficulté du projet.
Et encore ce cas était assez facile à analyser. Il y aura bien plus compliqué avec le dilemme :
sacrifier les passagers du véhicule pour éviter le piéton !
tout un programme avec des avocats incompétents qui vont s'en mettre plein les poches!
Par p.martin.pm
En réponse à parlons-en
Bon ceci dit, faudrait être dingue pour voir un PL se mettre en travers de la route et se dire: "C'est bon l'autopilote va gérer ça"
On nous vend le bidule en disant qu'on pourra travailler,se reposer.....ou tout autre fantaisie,sans se soucier de la conduite.Si on doit avoir l'oeil en permanence dessus,a quoi il sert?.Même sur autoroute: un camion qui fait l'équerre a cause d'un chauffeur fatigué,un animal qui traverse....etc.
Par Couscous78
En réponse à p.martin.pm
On nous vend le bidule en disant qu'on pourra travailler,se reposer.....ou tout autre fantaisie,sans se soucier de la conduite.Si on doit avoir l'oeil en permanence dessus,a quoi il sert?.Même sur autoroute: un camion qui fait l'équerre a cause d'un chauffeur fatigué,un animal qui traverse....etc.
Sauf erreur de ma part, Tesla ne vend pas le système en te disant que tu peux feuilleter un livre ou aller dormir sur la banquette arrière. Tu dois rester les mains sur le volant et être prêt à reprendre le controle en cas de problème.
Par §myn552LJ
En réponse à gxahafair
je le redis, je suis contre ce gadget !! celui qui ne veut pas conduire, il prend le train ou l'avion !!
parce que tu crois sérieusement qu'il y aura plus d'accidents mortels qu'aujourd'hui avec les caisses autonomes?
un petit rappel du nombre de morts chaque année sur les routes?
et puis, même en train ou avion, il est possible de mourir...
Par §myn552LJ
En réponse à nicob95
le comportement de ce vilain camion n'était pas rentré dans les lignes de codes de l'autopilot? du coup pas de réaction? comment ça un camion coupe la route, le feu était vert!
mais pour prévoir tous les comportements tordus, illogiques, par manque d'attention, de compétence, par excès d'alcool, de drogue, voir volontaires et j'en oublie, bah ils sont pas rendus!!!
ceci dit, c'est tout de même clairement un défaut du système mis en place par Tesla.
si voitures autonomes il y a, il devrait être impératif que les algos puissent déterminer tout ce qui s'approche dangereusement du véhicule, peu importe la distance ou la hauteur.
il n'y a rien de techniquement impossible, mais encore faut-il y penser.
mais chez Tesla, on veut aller plus vite que les autres et on oublie alors certaines étapes. on se retrouve alors plutôt avec une version beta plutôt que finalisée (et fiable) du logiciel de conduite. et ça, si c'est tolérable sur un ordi ou smartphone, ça ne peut l'être sur un engin responsable de la vie des gens.
Par Kilston
Attention à ne pas tout mélanger, il y a à mon avis deux cas de figures à dissocier:
- Dans le cas d'un système d'assistance à la conduite, le conducteur est sensé garder le contrôle du véhicule. Dans un cas où le système ne s'est simplement pas déclenché (ce qui semble être le cas ici), le seul responsable est à mon avis bien le conducteur puisqu'il aurait du réagir.
Pour moi, le seul cas où on peut considérer que le véhicule est responsable c'est si l'accident est causé par une activation intempestive du système. Exemple : accident provoqué par un freinage d'urgence qui s'est déclenché sans raison.
- Dans le cas d'un véhicule véritablement autonome, on pourrait considérer que le conducteur n'a plus à être maître de son véhicule (enfin, ça reste à voir!). Dans ce cas, on peut bel et bien considérer que la non réaction du système est la cause de l'accident.
En l'occurence, Autopilot est un système d'aide à la conduite, rien de plus. Donc à mon avis, on ne peut pas considérer que Tesla est responsable.
Là où c'est intéressant, c'est que ça montre bien la difficulté du challenge à relever pour arriver à un véhicule pleinement autonome...
Par pechtoc
Le système Tesla s'est bien chié dessus, c'est un fait, mais au lieu de pointer uniquement du doigt la Tesla et son système autonome, ils seraient peut-être temps de revoir la sécurité autour des poids-lourd outre-atlantique. Des barres anti-collision sur les flancs, ils comptent les rendre obligatoire un jour? C'est le cas en Europe depuis longtemps, justement pour éviter ce genre d'accidents.
Par Kilston
En réponse à §myn552LJ
ceci dit, c'est tout de même clairement un défaut du système mis en place par Tesla.
si voitures autonomes il y a, il devrait être impératif que les algos puissent déterminer tout ce qui s'approche dangereusement du véhicule, peu importe la distance ou la hauteur.
il n'y a rien de techniquement impossible, mais encore faut-il y penser.
mais chez Tesla, on veut aller plus vite que les autres et on oublie alors certaines étapes. on se retrouve alors plutôt avec une version beta plutôt que finalisée (et fiable) du logiciel de conduite. et ça, si c'est tolérable sur un ordi ou smartphone, ça ne peut l'être sur un engin responsable de la vie des gens.
Plutôt d'accord, Tesla a un peu tendance à prendre ses clients pour des beta testeurs.
Enfin le cas présent n'est pas le pire, un système de freinage qui ne s'enclenche pas, si le conducteur prête un minimum attention, c'est pas bien grave. Franchement, Autopilot ou pas, si je vois un camion en travers de la route, je freine.
Ce que je trouve plus inquiétant, c'est les quelques vidéos où l'on voit la voiture essayer de foncer d'elle-même sur un véhicule qui arrive dans la voie d'en face...
On retombe tout de même sur le problème de ces aides à la conduite. Les gens ont tendance à oublier que ce ne sont que des aides, et non des suppléants. Le système est sensé être là pour palier à un défaut du conducteur, pas l'inverse.
Par gordini12
En réponse à Couscous78
Sauf erreur de ma part, Tesla ne vend pas le système en te disant que tu peux feuilleter un livre ou aller dormir sur la banquette arrière. Tu dois rester les mains sur le volant et être prêt à reprendre le controle en cas de problème.
Si tu dois surveiller le système, c'est moins reposant et encore plus fourbe que de devoir t'en occuper.
J'ai l'exemple de l'allumage automatique des feux qui se mets en action le matin quand il fait nuit et qui se coupe quand la luminosité est suffisante même s'il y a du brouillard. Si tu n'a pas les yeux sur le tableau de bord et bien tu n'as pas conscience de ne plus être éclairé.
C'est comme les essuie-glaces qui se mettent seuls en action avec trois gouttes sur le pare-brise alors que ton bocal de lave glace est vide . Bonjour l'étalage de m...de sur le pare-brise et la perte de visibilité.
Dans ces deux cas ordinaires, merci l'assistance. Alors je ne vous parles même pas de la conduite automatique avec les milliers de cas foireux........
Par p.martin.pm
En réponse à Couscous78
Sauf erreur de ma part, Tesla ne vend pas le système en te disant que tu peux feuilleter un livre ou aller dormir sur la banquette arrière. Tu dois rester les mains sur le volant et être prêt à reprendre le controle en cas de problème.
Apparemment on n'a pas prévenu le conducteur sur la signification de autopilot mode.
Par nicob95
N’empêche, mourir demain au volant si c'est de ma faute, erreur ou autre, c'est très con mais bon c'est de mon fait.
mourir de la faute d'un autre car tu n'as pas su/pu l'éviter c'est niveau 2 dans la série mort rageante
mais en 2025 mourir parce que l'ordi de ta voiture autonome, ou celle d'en face, a buggé.... niveau 10!!!!
et si c'est juste de la tole froissée, je te raconte pas la gueule du constat: je sais pas je dormais quand la voiture A du conducteur qui jouait sur son ipad R23 ma rentré dedans faute de réseau sur cette p... de route de campagne :)
Par §ron178DF
En réponse à pat d pau
la dashcam est une solution tres developpé par les russes... je vois mal les USA copier les russes
bah ouais m'enfin ca aiderait a piger pourquoi la bagnole s'est plantee, systeme defaillant ou conducteur peu prudent, ou cause exterieure...
Par §myn552LJ
En réponse à pat d pau
la dashcam est une solution tres developpé par les russes... je vois mal les USA copier les russes
de série semble-t-il désormais dans la nouvelle c3. donc...
Par §myn552LJ
En réponse à p.martin.pm
Apparemment on n'a pas prévenu le conducteur sur la signification de autopilot mode.
en même temps, quand on te livre ta caisse neuve, on t'en dit de moins en moins...
quant à celui qui achète sa voiture d'occaz, ce n'est pas forcément mieux, sachant que le propriétaire vendeur n'est souvent pas au courant de toutes les fonctionnalités de sa caisse.
Par §wiz107IW
En réponse à nicob95
le comportement de ce vilain camion n'était pas rentré dans les lignes de codes de l'autopilot? du coup pas de réaction? comment ça un camion coupe la route, le feu était vert!
mais pour prévoir tous les comportements tordus, illogiques, par manque d'attention, de compétence, par excès d'alcool, de drogue, voir volontaires et j'en oublie, bah ils sont pas rendus!!!
il faudrait voir la conclusion de l'enquête.
OK pour des évenements imprévisibles. En revanche, il parait, pour le moment, qu'il n'y ait aucune trace de freinage. Le conducteur a fait confiance à la voiture, mais il faudrait voir si la voiture a détecté le camion ou pas, avant de conclure de ne pas actionner le freinage...
Il y a la question du temps de réaction, mais aussi de la décision prise.
Par §cac664ya
En réponse à §Fre444uA
Oui, sauf que c'est un accident avec un véhicule SANS autopilot, donc il y a de forte chance que la Tesla ne soit pas responsable de l'accident, donc RAS.
Le jour ou il y aura le 1er accident entre 2 voitures avec autopilot. Là ça sera drole de voir comment les juges et politiciens feront pour solucionner ce problème.
D'où est-ce que tu tiens cette information ?
Sur d'autres médias on peut lire que le gars était coutumier du mode Autopilot sur sa Tesla, il en postait des vidéos sur une chaîne youtube...
Par mekinsy
Le zéro mort sur les routes est tout simplement utopiste.
Ce qui est gênant c'est de mourir en tant que non conducteur, peut être que si il avait conduit la Tesla, ce conducteur aurait pu éviter l'accident.
J'ai connu un accident similaire il y a 15ans, je roulais a 180 sur une nationale 2*2 voies, un camion s'est déporté sur la 2éme voie lorsque je suis arrivé a environ 150/200 métres de ce dernier (Donc c'est comme ci j'arrivais a 80 km/h sur un mur situé a 150metres...
Ma réaction a duré 1 seconde. (Le temps de reaction an cas de freinage d'urgence), plutôt que de piler et risquer de rentrer dedans (Surtout que je n'avais pas d'ABS a cette époque, je l'ai contourné, deux de mes roues se sont retrouvés sur la terre du terre plein central (Une voiture autonome n'aurait pas franchi le marquage au sol, bon elle n'aurait pas non plus roulé a 180 pour 110 j'en conviens) et la j'ai évidement perdu le contrôle, je m'en suis sortie miraculeusement mais je m'en suis sortie quand même sans la moindre blessure, juste une belle frayeur.
Mais ce qui est dérangeant dans ce dramatique accident, c'est que la voiture autonome respecte la vitesse autorisée elle, donc on est sensé être en totale confiance avec ce genre de véhicule...
Et la, c'est le 1er mort qui leur ai imputable, avant même que la 1ere voiture Autonome soit commercialisée.
Quand on ajoute les risques de piratage, on est pas prêt d'en voir sur les routes.
Par mekinsy
En réponse à nicob95
N’empêche, mourir demain au volant si c'est de ma faute, erreur ou autre, c'est très con mais bon c'est de mon fait.
mourir de la faute d'un autre car tu n'as pas su/pu l'éviter c'est niveau 2 dans la série mort rageante
mais en 2025 mourir parce que l'ordi de ta voiture autonome, ou celle d'en face, a buggé.... niveau 10!!!!
et si c'est juste de la tole froissée, je te raconte pas la gueule du constat: je sais pas je dormais quand la voiture A du conducteur qui jouait sur son ipad R23 ma rentré dedans faute de réseau sur cette p... de route de campagne :)
Ceci étant, si tu es mort, tu es mort...Tu n'as plus l'occasion de te plaindre.
Le plus problématique c'est si tu t'en sors a moitié estropié et que tu passes le restant de ta vie sur un fauteuil roulant alors que tu n'as commis aucune faute.
Par JF2
Le mode autonome si il est un jour généralisé et représente une aide (style freinage d'urgence, évitement) ne devrait s'appliquer que dans les zones urbaines où la circulation dense mêlant automobiles, deux roues et piétons multiplie les risques, au delà de 50 Km/h le conducteur devrait obligatoirement avoir le contrôle afin de garder la faculté d'anticipation qui fait une conduite responsable.
Par parlons-en
En réponse à §cac664ya
D'où est-ce que tu tiens cette information ?
Sur d'autres médias on peut lire que le gars était coutumier du mode Autopilot sur sa Tesla, il en postait des vidéos sur une chaîne youtube...
Il faisait référence au PL qui n'était en autopilote...
allons cactus tu n'as pas lu son comm jusqu'au bout
Par parlons-en
Pour ceux que ça intéressent:
https://twitter.com/ptiberry/status/748937941758513152/photo/1
Ce n'est pas ce que j'avais compris en lisant l'article.
Par §wiz107IW
En réponse à parlons-en
Il faisait référence au PL qui n'était en autopilote...
allons cactus tu n'as pas lu son comm jusqu'au bout
Cela ne change rien au problème.
Demain, je te prends en autostop, ou en blablacar. Je roule à 50km/h, respecte le code de la route. Puis on s'approche d'un feu, qui vient de passer au rouge. Tu ne me vois pas ralentir, ni faire apparaitre aucune réaction. Tu te demanderas alors:
-option 1: j'ai l'habitude de freiner au dernier moment comme un abruti
-option 2: je n'ai pas vu ce feu rouge, d'où mon absence de réaction
.
Il en est de même lorsque tu es au volant sur une nationale. Tu vois un camion traverser la voie. Tu feras forcement quelque chose; freiner sec, tenter l'évitement par la gauche, ou par la droite, mais tu feras quelques chose (si tu disposes d'un peu de temps de réaction)
Alors il en est de même ici. Le camion a traversé la voie. Or, la police n'a relevé aucune trace de freinage, ou tentative d'évitement. C'est un manquement de la part de l'Autopilot. La suite de l'enquête en dira plus. Si le camion a franchi au dernier moment, ne laissant pas de temps pour réagir, que ce soit pour une machine ou pour un conducteur sur une voiture classique, alors Tesla sera blanchi. En revanche, si jamais la boite noire indique que l'obstacle a été détecté à 200m, mais que l'autopilot n'a pas donné suite, continuant son chemin tout droit, alors ce ne sera plus pareil...
SPONSORISE