Icône menu hamburger Icône loupe de recherche
  1. TDN >
  2. Automobile

Ivre au volant de sa Tesla en Autopilot, elle s’endort sur l’autoroute : la voiture s’arrête seule

Publié par Elsa Lepic le 04 Mai 2026 à 10:27

Deux heures du matin, une autoroute de Floride, une conductrice inconsciente au volant… et une Tesla qui gère la situation toute seule. L’histoire de Kimberley, 37 ans, retrouvée endormie sur la bande d’arrêt d’urgence de l’Interstate 75, relance un débat brûlant : jusqu’où peut-on faire confiance à l’Autopilot ? Et surtout, jusqu’où certains conducteurs sont-ils prêts à tester ses limites ?

2 heures du matin sur l’Interstate 75 : la scène qui a sidéré les policiers

Dans la nuit du vendredi 24 avril, la police de Sarasota reçoit un appel signalant un véhicule à l’arrêt sur l’Interstate 75, l’une des autoroutes les plus fréquentées de Floride. À leur arrivée sur place, les agents découvrent une Tesla immobilisée sur la bande d’arrêt d’urgence. Jusque-là, rien d’anormal. Sauf que derrière le volant, Kimberley dort profondément.

Tesla arrêtée sur bande d'arrêt d'urgence de nuit

Impossible de la réveiller dans les premières minutes. Quand les policiers parviennent enfin à la sortir de son sommeil, le constat est accablant. Selon les déclarations des forces de l’ordre rapportées par la chaîne ABC 7, son taux d’alcoolémie est « plus de deux fois supérieur à la limite légale ». Autrement dit : elle n’aurait jamais dû prendre le volant. Et les policiers ne se sont pas privés de le dire.

La conductrice revenait d’une soirée arrosée. Son plan pour rentrer chez elle en sécurité ? Activer le mode Autopilot de sa Tesla et laisser la voiture faire le travail. Un calcul qui s’est avéré aussi irresponsable que dangereux, même si le résultat aurait pu être bien pire.

Ce que l’Autopilot a fait — et ce qu’il n’est pas censé faire

Concrètement, voici ce qui s’est probablement passé. Le système Autopilot de Tesla est équipé de capteurs qui surveillent en permanence l’attention du conducteur. Si le conducteur ne touche plus le volant pendant un certain temps, le véhicule envoie des alertes visuelles et sonores. En l’absence de réaction — ce qui était clairement le cas ici — la voiture enclenche un protocole d’urgence.

Intérieur Tesla avec alerte Autopilot au volant

Le véhicule ralentit progressivement, active les feux de détresse et se range sur le bas-côté. C’est très vraisemblablement ce mécanisme qui a permis d’éviter un accident potentiellement mortel sur cette autoroute. Un cas similaire avait déjà fait le buzz il y a quelques années, quand un homme avait été filmé en train de dormir dans sa Tesla lancée à pleine vitesse.

Mais il faut être clair sur un point : l’Autopilot n’est PAS un système de conduite autonome. Tesla le présente comme une aide à la conduite, un filet de sécurité pour éviter les moments d’inattention. Pas un chauffeur de remplacement pour conducteurs ivres. La nuance est de taille, et elle est au cœur d’un problème bien plus large.

Une amende, un retrait de permis… et peut-être la prison

Pour Kimberley, la soirée s’est terminée au poste. Interpellée pour conduite en état d’ivresse (DUI en droit américain), elle encourt des sanctions particulièrement lourdes. Aux États-Unis comme en France, conduire avec un taux d’alcool aussi élevé peut entraîner une amende de plusieurs milliers de dollars, un retrait de permis immédiat et, en cas de récidive, une peine de prison ferme.

L’installation d’un éthylotest antidémarrage pourrait également être ordonnée par le juge. Ce dispositif oblige le conducteur à souffler dans un appareil avant chaque démarrage du véhicule — le moteur ne se lance que si le taux est sous la limite. Ironie du sort : c’est exactement le genre de technologie qui aurait empêché Kimberley de prendre la route ce soir-là. D’ailleurs, de nouveaux radars capables de détecter l’alcoolémie pourraient bientôt faire leur apparition sur les routes.

La police floridienne a qualifié son comportement d’« extrêmement dangereux ». Et pour cause : à cette vitesse, sur une autoroute, une Tesla sans conducteur attentif reste une bombe roulante de deux tonnes. L’Autopilot a évité le pire cette fois-ci. Mais il suffit d’un cerf, d’un obstacle imprévu ou d’un bug pour que le scénario bascule.

Le vrai problème : un nom qui en dit trop

Cet incident n’est pas isolé. Il s’inscrit dans une longue série de mésaventures liées à une confusion entretenue — volontairement ou non — par Tesla elle-même. Le terme « Autopilot » laisse croire à une autonomie complète. Le terme « Full Self-Driving » (conduite entièrement autonome), proposé en option payante, va encore plus loin dans la promesse. Sauf que dans les faits, aucun des deux systèmes ne permet de lâcher le volant.

Tesla garée devant un bâtiment administratif californien

Le Département des véhicules à moteur de Californie (DMV) ne s’y est pas trompé. L’organisme a officiellement critiqué Tesla pour ses « pratiques commerciales trompeuses », estimant que les noms choisis pour ces technologies induisent les conducteurs en erreur. Quand votre voiture s’appelle « Autopilot », difficile de reprocher à un conducteur lambda de croire qu’elle peut piloter toute seule. D’autant que la conduite autonome Tesla arrive progressivement en Europe, ce qui pose la question de l’encadrement réglementaire.

Plusieurs accidents graves impliquant des Tesla en mode semi-autonome ont déjà fait des victimes ces dernières années. En Allemagne, une famille s’est retrouvée piégée dans une Tesla après un accident. Une enquête a même été ouverte sur des portières qui se bloquent après un choc. Et en France, un conducteur a été flashé à 222 km/h en Tesla alors qu’il se rendait chez son juge. Le sentiment d’invincibilité que procure la technologie semble pousser certains à repousser toutes les limites.

Entre sécurité et fausse confiance : le dilemme de la voiture semi-autonome

L’affaire Kimberley illustre un paradoxe fascinant. D’un côté, le système a fonctionné : la voiture a détecté l’absence de réponse, s’est arrêtée et a potentiellement sauvé des vies — y compris celle de la conductrice. De l’autre, c’est précisément l’existence de ce filet de sécurité qui a encouragé un comportement irresponsable.

Les chercheurs en sécurité routière appellent ça le « risk compensation » : plus on se sent protégé, plus on prend de risques. Ceinture de sécurité, airbags, ABS… chaque innovation a généré des comportements plus audacieux. Avec l’Autopilot, le phénomène est amplifié par un marketing qui flirte avec la promesse d’autonomie totale. Pendant ce temps, Elon Musk annonce des taxis autonomes pour bientôt, alimentant encore davantage cette confusion.

En attendant une vraie réglementation internationale sur la conduite autonome, chaque conducteur reste légalement et moralement responsable de son véhicule. Autopilot ou pas. Même quand une Tesla parcourt 25 km sans conducteur pour rejoindre son propriétaire, ça ne veut pas dire qu’on peut s’endormir au volant après cinq mojitos.

L’histoire de Kimberley finit bien — personne n’a été blessé. Mais elle pose une question que l’industrie automobile va devoir affronter : quand la technologie sauve la mise malgré l’irresponsabilité du conducteur, est-ce un succès ou un échec ? La réponse dépend peut-être de la prochaine fois… où le système ne réagira pas assez vite.

Rejoignez nos 875 726 abonnés en recevant notre newsletter gratuite

Laissez un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *