Premier accident mortel pour une Tesla en pilote automatique

tesla-model-s-autopilot-2

Le 7 mai dernier, le conducteur d’une Tesla Model S décédait au volant de sa voiture semi-autonome. L’Agence de la route américaine a ouvert une enquête.

Premier crash mortel pour une Tesla

La nouvelle est tombée ce matin et a déjà été reprise à travers les quatre coins de la planète. Car l’enthousiasme démesuré suscité par la sortie des voitures semi-autonomes de Tesla s’accompagne naturellement d’une contrepartie : plus l’enthousiasme est grand et plus la déception l’est également. Aussi, ce matin on comptait déjà plus de 77 000 tweets faisant référence à l’accident mortel qui s’est déroulé le 7 mai en Floride. Les plus grands titres de presse ont tous repris l’information.

La victime s’appelait Joshua Brown, il était l’un des premiers acheteurs de la Tesla Model S et aimait poster des vidéos de ses virées en pilote automatique pour démontrer son efficacité. Le 5 avril, il publiait la vidéo d’un accident évité grâce à l’autopilot. Lancé en pilotage automatique sur l’autoroute américaine, un camion qui roulait à sa gauche a subitement viré sur sa droite incitant le véhicule autonome à faire une déviation abrupte pour éviter toute collision : « Tessy [le petit nom de sa voiture] a fait un excellent travail. J’ai déjà beaucoup testé les capteurs de la voiture et les capacités de son logiciel. j’ai toujours été impressionné par ce modèle mais je n’avais jamais été impliqué dans un tel cas de collision esquivée. Je suis TRES impréssionné, beau boulot Elon [Musk] » avait-il ajouté en commentaire de sa vidéo.

Lorsque la première version d’autopilot est sortie, en octobre, Elon Musk avait insisté sur le fait qu’il ne s’agissait que d’une beta et qu’il n’était pas conseillé de conduire sans garder ses mains sur le volant.

Une enquête fédérale ouverte

Malheureusement pour l’automobiliste de 40 ans, cette fois l’autopilot lui a fait défaut. La National Highway Traffic Safety n’a pas pris l’événement à la légère et vient d’ouvrir une enquête pour examiner 25 000 berlines Model S équipées du système de navigation autonome.

D’après les premières indications de l’enquête, l’accident aurait impliqué un semi-remorque qui tournait à gauche à une intersection alors que la Tesla S lui serait rentrée dedans par l’arrière en venant s’introduire sous la remorque.

D’après le conducteur du camion, Frank Baressi, le conducteur de la voiture électrique était « en train de regarder le film Harry Potter lors de l’accident« , avant de donner davantage d’indications sur son allure : « il allait tellement vite que je ne l’ai même pas vu se rapprocher« .

Dans la foulée de la communication sur cet accident, l’action Tesla a chuté de 3%. En conséquence de ce malheureux accident, la direction de Tesla a annoncé demander l’accord explicite des futurs conducteurs à l’avenir pour s’assurer qu’ils ont bien pris conscience que l’auto-pilot n’est qu’une version test. D’aprés eux, lorsque l’on active le pilotage automatique « une fenêtre de confirmation s’ouvre à l’écran et précise que l’autopilot est un système d’assistance qui nécessite que le conducteur garde ses mains sur le volant à tout moment et qu’il soit toujours sous contrôle et donc responsable de son propre véhicule« .

Quant à la NHTSA, elle vient donc d’ouvrir une enquête qui pourrait amener à l’interdiction des véhicules qui ne se montreraient pas surs.

Communiqué de Tesla

La direction de Tesla a réagi immédiatement et était probablement déjà prête étant donné la date de l’accident (survenu il y a quasiment deux mois). Dans son communiqué, le constructeur automobile tente de se dédouaner en insistant sur la rareté des accidents impliquant l’un de ses modèles : « c’est le premier accident fatal sur plus de 130 millions de miles parcourus avec l’autopilot. Sur la totalité des véhicules en circulation aux Etats-Unis, il y a un mort tous les 94 millions de miles« . Tout en minimisant l’importance de l’enquête ouverte qui n’est que « préliminaire » et qui consiste à « déterminer si le système a agi comme il aurait dû le faire« .

Plus loin, Tesla donne sa version des faits : « Ni l’autopilot ni le conducteur n’ont remarqué la carrosserie blanche du camion à cause d’un ciel très lumineux, aussi les freins n’ont pas été enclenchés« . Et de poursuivre sur les caractéristiques extraordinaires de l’accident : « la hauteur du camion combinée à son positionnement sur la route et les circonstances extrêmement rares de l’impact ont amené la Tesla à s’immiscer sous la remorque, qui est venue directement taper le pare-brise de la voiture ».

En réponse, Tesla a de nouveau insisté sur l’importance de la désactivation par défaut de l’autopilot qui est encore en phase de développement grâce aux données collectées par les premiers essayeurs. Et d’ajouter que l’accident s’inscrit dans un long processus d’amélioration car plus « les miles en situation réelles s’accumuleront et plus le logiciel prendra en compte des événements rares, plus les probabilités d’accidents diminueront« .

Pour conclure, le constructeur exprime ses condoléances à cet « ami de Tesla et de la communauté électrique, une personne qui a consacré sa vie à l’innovation et aux promesses de la technologie et qui croyait fermement en la mission de Tesla. Nous voulons donc exprimer nos plus sincères condoléances à sa famille et à ses proches« .

tableau de bord tesla model s

La question de l’accident au cœur du concept de voiture autonome

Ce matin, de nombreux médias ont saisi l’opportunité pour relancer le débat sur la sécurité de ces véhicules autonomes présentés à tort comme infaillibles – par le public et non par les fabricants -. Car la question n’est pas de créer un véhicule complètement sûr, du moins pas pour le moment, car l’équation est quasiment impossible à résoudre tant les facteurs extérieurs sont nombreux et imprévisibles. Aussi réactifs soient les capteurs du véhicule, si une personne se jette brusquement sous le capot d’un véhicule, ce-dernier n’aura tout simplement pas le temps de freiner, même s’il le fera sans doute mieux qu’un être humain…

En mars, la voiture de Google faisait elle aussi les gros titres « premier accident impliquant une google car » et présentant l’incident comme une catastrophe. Or, aucun blessé n’a été enregistré, et il s’agit d’un cas unique sur les millions de kilomètres déjà parcourus par la flotte de véhicules du géant américain.

Il faut également rappeler que c’est le premier accident mortel impliquant une Tesla (en autopilot). Et ce malgré plus de 70 000 véhicules de ce genre sur les routes du monde entier. En mai dernier, Tesla annonçait fièrement réunir un million de miles de data sur ses conducteurs toutes les 10 heures, soit un total de 100 millions de miles en autopilot et 780 millions sur la totalité de ses conducteurs. A titre d’exemple, cela représente chaque jour plus de données que n’en a récolté la flotte des Google Cars depuis 2009. Seulement, la direction de Google semble être beaucoup plus prudente puisque son modèle de voiture autonome est en développement depuis presque une décennie et qu’il n’est toujours pas prévu de sortir, bien qu’il ait été présenté pour la première fois en Europe hier au salon VivaTech à Paris.

La question que soulève cet accident tragique n’est pas tant celle de la sécurité des véhicules autonomes mais bien plutôt de leur responsabilité. De nombreux chercheurs s’activent à trouver des solutions pour tirer au clair les possibles conflits juridiques : qui de la machine, du conducteur ou de l’entreprise est responsable en cas d’accident ? Après les 5 lois de Google sur l’intelligence artificielle, le patron de Microsoft, Satya Nadella en a lui aussi profité pour donner sa vision de l’encadrement de cette technologie d’avenir. Mais le champ universitaires est le premier à se saisir sérieusement et concrètement des ces problématiques légales mais aussi sociétales. Dans un article de recherche, des sociologues et ingénieurs esquissent les limites morales de la machine capable de prendre des décisions. Ils décrivent un dilemme moral qui amènera indéniablement l’intelligence artificielle au volant à entrer en conflit avec son passager : s’il doit éviter un accident, doit-il sacrifier son passager pour la préservation du plus grand nombre, ou doit-il assurer la sécurité de son passager peu importent les conséquences ? Ce type d’interrogations seront incontestablement houleuses pour les autorités publiques qui seront contraintes de statuer pour tirer au clair les conflits de responsabilité légale.


Laisser un commentaire

  1. zelectron

    Quant aux "Cassandres, je vous l'avais bien dit" c'est 99% de la teneur des journaux grand public, quelle tristesse !

  2. zelectron

    un simple radar micro-ondes anti-collision en complément du système d'analyses d'images aurait pu être installé ?

  3. Anticipation

    En lisant, il faut donc interdire toutes les teintes qui peuvent être confondues avec l'environnement.Ce n'est pas si bête mine de rien !

  4. Anticipation

    1 à 2 bonnes secondes de retard à 0:20, le problème avec ces systèmes est qu'ils ne savent pas anticiper, ce qui est une de nos facultés, les systémes autonomes ne seront cohérents seulement le jour ou tous les véhicules rouleront avec, il y aura 0 accidents si il n'y a pas de défaillances matérielles....