Elon Musk, le patron de Tesla, ne s'emballe-t-il pas un peu trop sur la voiture autonome ?
Elon Musk, le patron de Tesla, a récemment annoncé lors d'une conférence à Shanghai que le constructeur était tout près de la voiture autonome de niveau 5, le niveau maximum. Pour de nombreux experts en informatique, cette affirmation est bien illusoire.
Elon Musk, le gourou et patron de Tesla, a parfois des attitudes d'homme politique : il aime faire de grandes annonces, sans forcément les tenir, et en sachant probablement très bien qu'elles ne seront pas tenables. Retour en arrière : en 2015, l'intéressé annonce que les Tesla seront totalement autonomes en 2018. Nous sommes en 2020, et elles sont toujours bloquées au niveau 2 d'autonomie, qui permet simplement de faire "l'assistance" au conducteur (malgré le nom d'"Autopilot" qui pourrait laisser penser le contraire).
Rebelote il y a quelques jours : lors d'une assemblée à Shanghai, Elon Musk annonce que les "Tesla auront les fonctionnalités basiques pour être autonomes de niveau 5 dès cette année" et que le niveau d'autonomie totale était très "proche". En clair, Tesla aurait une avance immense sur les autres constructeurs automobiles, mais aussi sur Google (Waymo).
Qu'en est-il de la réalité ? Selon certains experts en informatique, le niveau 5 d'autonomie est très, très éloigné. A l'heure actuelle, les meilleures voitures oscillent concrètement entre le niveau 2 (assistance) et 3 (conduite autonome dans certaines conditions, type voie rapide).
Melanie Mitchell, professeure à l'Institut de Sante Fe aux Etats-Unis, rappelle que l'autonomie totale ne dépend pas tant du matériel embarqué (qui est effectivement déjà présent sur certaines autos), mais plutôt sur l'intelligence artificielle et le "deep learning".
"Aujourd'hui, le top de la conduite semi autonome se comporte bien tant que les conditions sont prédictibles et que l'environnement correspond à ce que la machine "connaît". Les problèmes arrivent quand l'auto fait face à des situations que ne se rapprochent pas parfaitement de ce qu'elle sait".
Problème : ce genre de situation est en fait bien plus fréquente qu'on ne le pense. Et contrairement à l'homme, l'intelligence artificielle ne peut pas faire preuve de ce que la spécialiste appelle le "bon sens", et ne peut pas apprendre toute seule. Les constructeurs et développeurs qui travaillent sur la voiture autonome sont partis sur la stratégie qui consiste à faire faire un maximum de kilomètres aux prototypes pour qu'ils rencontrent un maximum de situations. En clair, engranger. Mais cela ne remplacera pas le "bon sens" et le cerveau humain : les situations inhabituelles sont "trop régulières" pour la voiture autonome et il est "impossible de l'entraîner pour tous ces cas exceptionnels" selon Melanie Mitchell. L'être humain, lui, peut à tout moment prendre des décisions rentrant dans le "bon sens" en cas de situation complexe : ralentir lorsqu'il circule en centre-ville avec piétons de toute part, prendre ses distances avec un véhicule qui zig-zag devant, reconnaître une situation potentiellement dangereuse (risque d'objet qui tombe sur la route à cause du vent...)...
Le constat est clair : à l'heure actuelle, l'experte fait clairement plus confiance à l'homme qu'à la machine dans un usage "toutes conditions". Et cela n'est probablement pas près de changer, ou en tout cas pas tant que la machine sera capable de prendre une décision (la bonne, évidemment) d'elle-même dans un cas totalement inédit.
Déposer un commentaire
Alerte de modération
Alerte de modération