Crash mortel en Tesla : Elon Musk s’empresse de défendre l’Autopilot
Elon Musk a très vite réagi à l’accident mortel impliquant une Tesla Model S. Selon lui, l’Autopilot n’était pas actif au moment de la collision.
Samedi, deux hommes, âgés de 59 et 69 ans, se sont tués à bord d’une Tesla Model S, dans des circonstances un peu étranges. L’Autopilot, technologie que certains comparent à de la conduite autonome, était-il activé au moment de la collision ? L’hypothèse est émise car il semble que le siège conducteur était inoccupé lorsque la voiture a violemment percuté un arbre. Mais elle est déjà réfutée par Elon Musk, qui, comme à son habitude, a pris la parole sur Twitter pour défendre les intérêts de son entreprise.
UN ACCIDENT ÉTRANGE QUI MÉRITE UNE ENQUÊTE
Les niveaux d’Autopilot
Elon Musk évoque l’Autopilot standard dans son tweet. Il correspond au niveau 1 d’assistance, associant un régulateur de vitesse adaptatif et un maintien de la voie pour laisser la voiture opérer seule, quand les conditions le permettent. Pour plus de fonctionnalités évoluées, il faut acquérir un pack appelé ‘Capacité de conduite entièrement autonome’ (aux États-Unis).
En réponse à un internaute qui estime que l’Autopilot ne pouvait pas être actif (en raison des mesures de sécurité qu’il implique), Elon Musk s’est permis d’appuyer : « Vos recherches, en tant que particulier, sont meilleures que celles des professionnels du Wall Street Journal. Les données récoltées pour le moment montrent que l’Autopilot n’était pas actif et que cette voiture n’avait pas l’option ‘Capacité de conduite entièrement’ autonome. En plus, l’Autopilot standard a besoin de marquages au sol pour être activé, ce que cette rue n’avait pas. »
Il est difficile d’accorder un crédit total à Elon Musk, qui souhaite, logiquement, défendre son Autopilot face aux critiques — comme il l’avait déjà fait en 2018 suite à un précédent crash mortel. Seule l’enquête menée par la NTSB, le conseil national de sécurité des transports aux Etats-Unis, permettra de faire toute la lumière sur cet accident.
The NTSB, in coordination with the Harris County Precinct 4 Constable’s Office, is sending two investigators to conduct a safety investigation of the fatal Apr. 17, 2021, Tesla vehicle crash near Spring, TX.
— NTSB Newsroom (@NTSB_Newsroom) April 19, 2021
Il est en effet compliqué de déterminer, pour l’heure, les causes de cet accident, qu’importe le degré d’implication de l’Autopilot. Normalement, cette technologie est censée se désengager si personne n’est assis au poste de conducteur (un détecteur de poids le signale), si elle ne détecte plus les mains sur le volant ou encore, si la voie n’est plus identifiable. Ces trois critères n’étaient, semble-t-il, pas remplis quand la Model S a quitté la route. Les éléments préliminaires vont donc, pour le moment, plutôt dans le sens des déclarations d’Elon Musk, mais l’enquête ne fait que débuter.
A noter qu’il existe des moyens de tromper l’intelligence artificielle. Il est, par exemple, possible de poser un objet lourd sur le siège, pour lui faire croire qu’il y a quelqu’un dessus. Et des outils permettent de simuler la pose des mains sur le volant. Ces techniques ont peut-être été utilisées par l’une des victimes pour tenter de pousser la technologie dans ses retranchements. L’Autopilot, qui reste un laboratoire, peut aussi connaître des failles et outrepasser certaines de ses limitations — d’où la nécessité d’être constamment vigilant. L’enquête de la NTSB sera donc déterminante pour déterminer les circonstances exactes de l’accident.
Source : numerama