
Le Washington Post se demande pourquoi le pilote automatique de Tesla est opérationnel dans les zones où il n'est pas censé être utilisé.
L'article du Washington Post du 10 décembre 2023 examine les raisons pour lesquelles le pilote automatique de Tesla s'active sur des routes non adaptées. Cette question a suscité un vif débat, comme en témoignent les 3 600 commentaires recueillis en seulement 12 heures depuis la publication de l'article.
L'accident tragique près de Key Largo impliquant une Tesla en mode Autopilot dresse un tableau sombre. Bien que le système ne soit pas conçu pour les routes de campagne, la voiture a ignoré des signaux cruciaux : un panneau stop, un feu clignotant et cinq panneaux d'avertissement annonçant une fin de route imminente. L'accident qui en a résulté a causé la mort d'une personne et de graves blessures à une autre. Cet incident va au-delà de la simple distraction du conducteur ; il révèle une faille plus profonde dans le fonctionnement du pilote automatique.
En réfléchissant à Elon Musk, Tesla et à la célèbre technologie Autopilot, il est crucial de regarder les preuves vidéo et de considérer :
Pourquoi le pilote automatique s'est-il activé sur une route inadaptée ?
Comment le pilote automatique n'a-t-il pas réussi à reconnaître et à répondre aux marqueurs évidents d'une intersection en T ?
Cet incident tragique remet en question notre compréhension des limites de la technologie et soulève des questions cruciales quant à sa mise en œuvre responsable.
Tesla a ouvertement reconnu dans divers documents et communications que l'Autosteer, la fonctionnalité principale du pilote automatique, est destiné aux autoroutes à accès contrôlé, détaillant ses limites en montée, dans les virages serrés et sur des routes inadaptées. Bien que Tesla soit techniquement capable de restreindre géographiquement le pilote automatique, elle n'a pas pris de mesures définitives pour en limiter l'utilisation, ce qui soulève des questions.
Une explication plausible pourrait être un conflit entre le National Transportation Safety Board (NTSB) et la National Highway Traffic Safety Administration (NHTSA). Suite à l'accident mortel de la Tesla Model S en 2016, au cours duquel le conducteur Joshua Brown a perdu la vie, le NTSB a préconisé des limitations quant aux zones d'activation des technologies d'assistance à la conduite. Cependant, faute d'autorité réglementaire sur Tesla, le NTSB n'a pas pu appliquer ses recommandations. La NHTSA, chargée de définir les normes de sécurité automobile, a été critiquée pour son inaction, ce qui a engendré des tensions entre les deux agences.
La présidente du NTSB, Jennifer Homendy, a exprimé sa frustration, soulignant que l'incapacité de la NHTSA à réglementer les lieux d'exploitation de la technologie Tesla reflétait un problème de sécurité systémique. Elle a appelé à l'action, s'interrogeant sur le nombre de vies perdues avant que des mesures réglementaires ne soient prises. En réponse, la NHTSA a réaffirmé son engagement en faveur de la sécurité, mais a jugé complexe et exigeant en ressources de garantir le fonctionnement de systèmes comme le pilote automatique Tesla dans les conditions définies, suggérant que cela pourrait ne pas résoudre le problème.
Homendy est resté sceptique, soulignant la tendance des agences et des industries à ignorer les recommandations du NTSB jusqu'à ce que d'autres tragédies surviennent. Tesla, dans ses affaires judiciaires et ses déclarations publiques, a systématiquement rejeté la responsabilité des accidents impliquant le pilote automatique sur les conducteurs, affirmant que c'est eux qui déterminent l'environnement de fonctionnement acceptable de la voiture.
Cette situation met en évidence un paysage réglementaire complexe, où la délimitation des responsabilités entre les fabricants, les régulateurs et les conducteurs reste un point de discorde, malgré le besoin urgent de mesures de sécurité renforcées dans les systèmes avancés d'assistance à la conduite comme l'Autopilot de Tesla.
L'ancien directeur de la NHTSA, Steven Cliff, s'interrogeant sur les approches réglementaires, a souligné la prudence de l'agence, rappelant que l'agence avait par le passé imposé aux entreprises comme Tesla de communiquer les données relatives aux accidents impliquant des systèmes avancés d'aide à la conduite (ADAS). Malgré cette collecte de données, la transition entre cette étape et l'établissement de règles définitives, si nécessaire, peut être longue. Selon Cliff, l'approche de Tesla tend à donner aux opérateurs les moyens de déterminer les normes de sécurité tout en leur laissant une certaine flexibilité dans la prise de décision.
Cliff a souligné la capacité de Tesla à restreindre les endroits où sa technologie fonctionne.Grâce à sa connaissance de la localisation grâce à la navigation, la voiture peut identifier les zones d'utilisation appropriées. Il s'interroge sur l'autorisation d'activer la technologie dans des endroits inappropriés si elle n'est pas conçue pour de tels environnements.
Le conflit entre les régulateurs, illustré par le désaccord entre Elon Musk et l'ancien président du NTSB, Robert Sumwalt, met en lumière un conflit de longue date. Les rapports du NTSB sur les accidents mortels impliquant Tesla ont mis en évidence des problèmes tels que la dépendance excessive des conducteurs au pilote automatique et l'incapacité de la NHTSA à fixer des limites aux systèmes de contrôle automatisé, reliant ces lacunes à des facteurs contributifs aux accidents.
Les efforts du NTSB pour inciter à l'action, notamment les lettres adressées à Elon Musk et les appels à la mise en œuvre de mesures de sécurité adaptées aux limites de conception du pilote automatique, se sont heurtés à une certaine résistance. Malgré les appels répétés des organismes de réglementation, ni Elon Musk ni Tesla n'ont réagi à ces recommandations de sécurité.
Au cœur de la controverse, les avis divergent fortement. Certains défendent le pilote automatique, affirmant qu'il a sauvé plus de vies qu'il n'en a fait de victimes, tandis que les sceptiques insinuent que le système pourrait se désactiver automatiquement avant un accident, permettant ainsi à l'entreprise de nier toute implication active. Cependant, la véritable inquiétude vient des personnes victimes d'accidents, comme la victime des Keys de Floride, qui remettent en question l'autorisation d'une telle technologie potentiellement dangereuse sur les routes, la comparant à une arme mortelle.
Au-delà des conducteurs de Tesla, les discussions se sont tournées vers les acteurs insoupçonnés de ce récit technologique – autres conducteurs, piétons et cyclistes – entraînés dans une vaste simulation informatique sans leur consentement. Des questions se posent quant à savoir qui défend leurs droits et veille à leur bien-être dans ce paysage technologique en constante évolution. Une question fondamentale persiste : pourquoi font-ils involontairement partie de l’histoire de Tesla, et qui assure leur protection ?
--------Ce article est en partie extrait du Washington Post.