The Washington Post is questioning why Tesla's Autopilot is operable in areas where it's not supposed to be used.

El Washington Post cuestiona por qué el piloto automático de Tesla es operable en áreas donde se supone que no debe usarse.

El artículo del Washington Post del 10 de diciembre de 2023 indaga en el motivo por el cual el piloto automático de Tesla se activa en carreteras no aptas para su uso. Esta cuestión ha suscitado un importante debate, como lo demuestran los 3.600 comentarios acumulados en tan solo 12 horas desde que se publicó la noticia.

El trágico incidente ocurrido cerca de Key Largo en el que estuvo involucrado un Tesla con el piloto automático puesto pinta un panorama sombrío. A pesar de que el sistema no está diseñado para caminos rurales, el automóvil ignoró señales cruciales: una señal de stop, una luz intermitente y cinco señales de advertencia sobre el inminente final de la carretera. El choque resultante provocó la muerte de una persona y heridas graves a otra. Va más allá de la mera distracción del conductor; expone una falla más profunda en la funcionalidad del piloto automático.

Al contemplar a Elon Musk, Tesla y la célebre tecnología Autopilot, es fundamental observar la evidencia en video y considerar:

¿Por qué se activó el piloto automático en una carretera no apta?
¿Cómo fue que el piloto automático no reconoció ni respondió a los marcadores evidentes de una intersección en T?
Este trágico incidente desafía nuestra comprensión de las limitaciones de la tecnología y plantea preguntas críticas sobre su implementación responsable.

Autopilot

Tesla ha reconocido abiertamente en varios documentos y comunicaciones que Autosteer, la función principal de Autopilot, está pensada para autopistas de acceso controlado, y ha detallado sus limitaciones en pendientes, curvas cerradas y condiciones de carretera inadecuadas. A pesar de poseer la capacidad técnica para restringir geográficamente el uso de Autopilot, Tesla no ha tomado medidas definitivas para limitar su uso, lo que ha suscitado preguntas sobre el motivo.

Una explicación plausible podría ser un enfrentamiento entre la Junta Nacional de Seguridad del Transporte (NTSB, por sus siglas en inglés) y la Administración Nacional de Seguridad del Tráfico en las Carreteras (NHTSA, por sus siglas en inglés). Tras el accidente fatal del Tesla Model S en 2016, en el que el conductor Joshua Brown perdió la vida, la NTSB abogó por que se establecieran límites a los lugares en los que se podía activar la tecnología de asistencia al conductor. Sin embargo, al carecer de autoridad regulatoria sobre Tesla, la NTSB no pudo hacer cumplir sus recomendaciones. La NHTSA, responsable de establecer los estándares de seguridad de los automóviles, enfrentó críticas por su inacción, lo que generó tensiones entre las agencias.

La presidenta de la NTSB, Jennifer Homendy, expresó su frustración y enfatizó que el fracaso de la NHTSA en regular dónde opera la tecnología de Tesla refleja un problema de seguridad sistémico. Instó a que se tomen medidas y se preguntó cuántas vidas más deben perderse antes de que se tomen medidas regulatorias. En respuesta, la NHTSA enfatizó su compromiso con la seguridad, pero consideró que es complejo y requiere muchos recursos garantizar que sistemas como el piloto automático de Tesla funcionen dentro de las condiciones designadas, lo que sugiere que podría no resolver el problema.

Homendy se mostró escéptico y señaló la tendencia de las agencias e industrias a desestimar las recomendaciones de la NTSB hasta que ocurran más tragedias. Tesla, en casos legales y declaraciones públicas, ha trasladado sistemáticamente la responsabilidad a los conductores por los accidentes relacionados con el piloto automático, afirmando que el conductor determina el entorno operativo aceptable del automóvil.

Esta situación pone de relieve un panorama regulatorio complejo, donde la delimitación de responsabilidades entre fabricantes, reguladores y conductores sigue siendo un punto de discordia, a pesar de la urgente necesidad de mejorar las medidas de seguridad en sistemas avanzados de asistencia al conductor como el Autopilot de Tesla.

El ex director de la NHTSA, Steven Cliff, reflexionando sobre los enfoques regulatorios, destacó la postura cautelosa y destacó el mandato anterior de la agencia para que las empresas como Tesla informen los datos de accidentes que involucran sistemas avanzados de asistencia al conductor (ADAS). A pesar de esta recopilación de datos, la transición de esta etapa al establecimiento de reglas finales, si es necesario, puede ser un proceso largo. El enfoque de Tesla, según Cliff, se inclina por empoderar a los operadores para determinar los estándares de seguridad y, al mismo tiempo, permitir flexibilidad en la toma de decisiones.

Cliff destacó la capacidad de Tesla para restringir los lugares donde opera su tecnología. Gracias a su conocimiento de la ubicación a través de la navegación, el automóvil puede discernir áreas de uso adecuadas. Cuestionó que se permita la activación de la tecnología en lugares inadecuados si no está diseñada para esos entornos.

El enfrentamiento entre los reguladores, ejemplificado por el desacuerdo de Elon Musk con el ex presidente de la NTSB Robert Sumwalt, pone de relieve una disputa de larga data. Los informes de la NTSB sobre los accidentes fatales de Tesla destacaron problemas como la excesiva dependencia de los conductores del piloto automático y el fracaso de la NHTSA a la hora de establecer limitaciones a los sistemas de control automatizados, vinculando estas deficiencias a los factores que contribuyen a los accidentes.

Los esfuerzos de la NTSB para instar a que se tomen medidas, incluidas cartas a Musk y pedidos de que se implementen medidas de seguridad acordes con las limitaciones de diseño del piloto automático, han encontrado resistencia. A pesar de los reiterados pedidos de los organismos reguladores, no ha habido respuesta de Musk ni de Tesla para abordar estas recomendaciones de seguridad.

En medio de la controversia, las opiniones divergen profundamente. Algunos defienden el Autopilot, sugiriendo que ha salvado más vidas de las que ha causado, mientras que los escépticos insinúan que el sistema podría autodesactivarse antes de un accidente, lo que permitiría a la empresa negar su participación activa. Sin embargo, la verdadera preocupación surge de las personas afectadas por accidentes, como la víctima de los Cayos de Florida, que cuestionan la autorización de una tecnología tan potencialmente peligrosa en las carreteras, comparándola con un arma mortal.

Más allá de los conductores de Tesla, el debate se ha centrado en los actores desprevenidos de esta narrativa tecnológica (otros conductores, peatones y ciclistas) que se ven arrastrados a una enorme simulación informática sin su consentimiento. Surgen preguntas sobre quién defiende sus derechos y salvaguarda su bienestar en este panorama tecnológico en constante evolución. La pregunta fundamental persiste: ¿por qué forman parte involuntariamente de la historia de Tesla y quién garantiza su protección?

--------Este artículo es en parte extraído del Washington Post.

Volver al blog

Deja un comentario

Tenga en cuenta que los comentarios deben aprobarse antes de publicarlos.