The Washington Post is questioning why Tesla's Autopilot is operable in areas where it's not supposed to be used.

Le Washington Post se demande pourquoi le pilote automatique de Tesla peut fonctionner dans des zones où il n'est pas censé être utilisé.

L'article du Washington Post du 10 décembre 2023 examine pourquoi le pilote automatique de Tesla s'active sur des routes impropres à son utilisation. Cette question a suscité un débat important, comme en témoignent les 3 600 commentaires recueillis en seulement 12 heures depuis la mise en ligne de l'article.

L'incident tragique près de Key Largo impliquant une Tesla en pilote automatique dresse un tableau sombre. Bien que le système ne soit pas destiné aux routes rurales, la voiture n'a pas tenu compte des signaux cruciaux : un panneau d'arrêt, un feu clignotant et cinq panneaux d'avertissement concernant la fin imminente de la route. L'accident qui en a résulté a entraîné la mort d'une personne et des blessures graves chez une autre. Cela va au-delà de la simple distraction du conducteur ; cela expose une faille plus profonde dans la fonctionnalité du pilote automatique.

En réfléchissant à Elon Musk, Tesla et à la célèbre technologie de pilote automatique, il est crucial d'assister aux preuves vidéo et de réfléchir :

Pourquoi le pilote automatique s'est-il activé sur une route inappropriée ?
Comment le pilote automatique s'est-il activé ne parviennent-ils pas à reconnaître et à réagir aux marqueurs évidents d'une intersection en T ?
Cet incident tragique remet en question notre compréhension des limites de la technologie et soulève des questions cruciales sur sa mise en œuvre responsable.

Autopilot

Tesla a ouvertement reconnu dans divers documents et communications que l'Autosteer, la fonctionnalité principale d'Autopilot, est destinée aux autoroutes à accès contrôlé, détaillant ses limites en cas de collines, de virages serrés et de conditions routières inappropriées. Bien qu’elle possède la capacité technique de restreindre géographiquement le pilote automatique, Tesla n’a pas pris de mesures définitives pour limiter son utilisation, ce qui soulève des questions quant aux raisons pour lesquelles.

Une explication plausible pourrait impliquer un conflit entre le National Transportation Safety Board (NTSB) et la National Highway Traffic Safety Administration (NHTSA). À la suite de l'accident mortel de la Tesla Model S en 2016, dans lequel le conducteur Joshua Brown a perdu la vie, le NTSB a plaidé en faveur de limitations sur les endroits où la technologie d'assistance à la conduite pourrait s'activer. Cependant, faute d’autorité réglementaire sur Tesla, le NTSB n’a pas pu appliquer ses recommandations. La NHTSA, chargée d'établir les normes de sécurité automobile, a été critiquée pour son inaction, ce qui a entraîné des tensions entre les agences.

La présidente du NTSB, Jennifer Homendy, a exprimé sa frustration, soulignant que l'incapacité de la NHTSA à réglementer les lieux où la technologie de Tesla est exploitée reflète un problème de sécurité systémique. Elle a appelé à l'action, se demandant combien de vies supplémentaires doivent être perdues avant que des mesures réglementaires ne soient prises. En réponse, la NHTSA a souligné son engagement en faveur de la sécurité, mais a jugé complexe et gourmand en ressources de garantir que des systèmes tels que Tesla Autopilot fonctionnent dans des conditions désignées, ce qui suggère que cela pourrait ne pas résoudre le problème.

Homendy est resté sceptique, notant la tendance des agences et des industries à rejeter les recommandations du NTSB jusqu'à ce que d'autres tragédies se produisent. Tesla, dans des affaires judiciaires et des déclarations publiques, a systématiquement transféré la responsabilité aux conducteurs pour les accidents liés au pilote automatique, affirmant que le conducteur détermine l'environnement d'exploitation acceptable de la voiture.

Cette situation met en évidence un paysage réglementaire complexe, dans lequel la délimitation des responsabilités entre les constructeurs, les régulateurs et les conducteurs reste un point de discorde, malgré le besoin urgent de mesures de sécurité renforcées dans les systèmes avancés d'aide à la conduite comme le pilote automatique de Tesla.

L'ancien chef de la NHTSA, Steven Cliff, réfléchissant aux approches réglementaires, a noté cette position prudente, soulignant le mandat passé de l'agence pour des entreprises comme Tesla de rapporter les données d'accidents impliquant des systèmes avancés d'aide à la conduite (ADAS). Malgré cette collecte de données, le passage de cette étape à l’établissement de règles définitives, si nécessaire, peut être un long processus. L'approche de Tesla, selon Cliff, tend à donner aux opérateurs le pouvoir de déterminer les normes de sécurité tout en permettant une flexibilité dans la prise de décision.

Cliff a souligné la capacité de Tesla à restreindre les zones où sa technologie est utilisée. Grâce à sa connaissance de l'emplacement via la navigation, la voiture peut discerner les zones d'utilisation appropriées. Il s'est interrogé sur la possibilité d'activer la technologie dans des endroits inappropriés si elle n'était pas conçue pour de tels environnements.

Le conflit entre les régulateurs, illustré par le désaccord d'Elon Musk avec l'ancien président du NTSB, Robert Sumwalt, souligne un différend de longue date. Les rapports du NTSB sur les accidents mortels de Tesla ont mis en évidence des problèmes tels que la dépendance excessive des conducteurs au pilote automatique et l'incapacité de la NHTSA à établir des limites sur les systèmes de contrôle automatisés, liant ces lacunes aux facteurs contributifs aux accidents.

Les efforts du NTSB pour inciter à l'action, y compris des lettres à Musk et des appels à la mise en œuvre de mesures de sécurité alignées sur les limites de conception du pilote automatique, se sont heurtés à une résistance. Malgré les appels répétés des organismes de réglementation, Musk ou Tesla n’ont reçu aucune réponse pour répondre à ces recommandations de sécurité.

Au milieu de la controverse, les avis divergent fortement. Certains défendent Autopilot, suggérant qu'il a sauvé plus de vies que de blessés, tandis que les sceptiques insinuent que le système pourrait s'auto-désactiver avant un crash, permettant à l'entreprise de nier sa participation active. Cependant, la véritable inquiétude vient des personnes touchées par des accidents, comme la victime des Florida Keys, qui remettent en question l'autorisation d'une technologie aussi potentiellement dangereuse sur les routes, la comparant à une arme mortelle.

Au-delà des conducteurs de Tesla, les discussions se sont tournées vers les acteurs sans méfiance de ce récit technologique (autres conducteurs, piétons et cyclistes) entraînés dans une vaste simulation informatique sans leur consentement. Des questions se posent quant à savoir qui défend leurs droits et protège leur bien-être dans ce paysage technologique en évolution. La question fondamentale persiste : pourquoi font-ils involontairement partie de l’histoire de Tesla, et qui assure leur protection ?

 

--------Cet article est en partie extrait du Washington Post.

 

Retour au blog

Laisser un commentaire

Veuillez noter que les commentaires doivent être approuvés avant d'être publiés.