El Washington Post está cuestionando por qué el piloto automático de Tesla es operable en áreas donde se supone que no debe usarse.
El artículo del Washington Post del 10 de diciembre de 2023, analiza por qué el piloto automático de Tesla se activa en carreteras inadecuadas para su uso. Este tema ha provocado un debate significativo, evidente por los 3.600 comentarios acumulados en solo 12 horas desde que la historia se puso en marcha.
El trágico incidente cerca de Key Largo que involucra a un Tesla en piloto automático pinta una imagen sombría. A pesar de que el sistema no está destinado a las carreteras rurales, el automóvil ignoró las señales cruciales: una señal de alto, una luz intermitente y cinco señales de advertencia sobre el inminente final de la carretera. El accidente resultante provocó la muerte de un individuo y lesiones graves a otro. Va más allá de la mera distracción del conductor; expone un defecto más profundo en la funcionalidad del piloto automático.
Al contemplar a Elon Musk, Tesla y la célebre tecnología del piloto automático, es crucial presenciar la evidencia del video y considerar:
¿Por qué se activó el piloto automático en una carretera inadecuada?
¿Cómo es que el Autopilot no pudo reconocer y responder a los marcadores evidentes de una intersección en T?
Este trágico incidente desafía nuestra comprensión de las limitaciones de la tecnología y plantea preguntas críticas sobre su implementación responsable.
Tesla ha reconocido abiertamente en varios documentos y comunicaciones que Autosteer, la característica principal de Autopilot, está destinada a autopistas de acceso controlado, detallando sus limitaciones alrededor de las colinas, curvas cerradas y condiciones inadecuadas de la carretera. A pesar de poseer la capacidad técnica para restringir el piloto automático geográficamente, Tesla no ha tomado medidas definitivas para limitar su uso, lo que genera preguntas sobre por qué.
Una explicación plausible podría implicar un choque entre la Junta Nacional de Seguridad del Transporte (NTSB) y la Administración Nacional de Seguridad del Tráfico en las Carreteras (NHTSA). Después del fatal accidente del Tesla Model S en 2016, donde el conductor Joshua Brown perdió la vida, la NTSB abogó por las limitaciones sobre dónde podría activarse la tecnología de asistencia al conductor. Sin embargo, al carecer de autoridad reguladora sobre Tesla, la NTSB no pudo hacer cumplir sus recomendaciones. La NHTSA, responsable de establecer los estándares de seguridad de los automóviles, se enfrentó a críticas por su inacción, lo que provocó tensiones entre las agencias.
La presidenta de la NTSB, Jennifer Homendy, expresó su frustración, enfatizando que el fracaso de la NHTSA para regular dónde opera la tecnología de Tesla refleja un problema de seguridad sistémico. Instó a la acción, cuestionando cuántas vidas más deben perderse antes de que se tomen medidas regulatorias. En respuesta, la NHTSA enfatizó su compromiso con la seguridad, pero consideró que es complejo y requiere muchos recursos para garantizar que sistemas como el piloto automático de Tesla funcionen dentro de las condiciones designadas, lo que sugiere que podría no resolver el problema.
Homendy se mantuvo escéptico, señalando la tendencia de las agencias e industrias a rechazar las recomendaciones de la NTSB hasta que ocurran más tragedias. Tesla, en casos legales y declaraciones públicas, ha cambiado constantemente la responsabilidad a los conductores por accidentes relacionados con el piloto automático, afirmando que el conductor determina el entorno operativo aceptable del automóvil.
Esta situación subraya un complejo panorama regulatorio, donde la delimitación de la responsabilidad entre fabricantes, reguladores y conductores sigue siendo un punto de contención, a pesar de la necesidad apremiante de medidas de seguridad mejoradas en sistemas avanzados de asistencia al conductor como el piloto automático de Tesla.
El ex jefe de la NHTSA, Steven Cliff, reflexionando sobre los enfoques regulatorios, señaló la postura cautelosa, destacando el mandato anterior de la agencia para que compañías como Tesla informen datos de accidentes que involucren sistemas avanzados de asistencia al conductor (ADAS). A pesar de esta recopilación de datos, la transición de esta etapa al establecimiento de reglas finales, si es necesario, puede ser un proceso largo. El enfoque de Tesla, según Cliff, se inclina hacia el empoderamiento de los operadores para determinar los estándares de seguridad al tiempo que permite la flexibilidad en la toma de decisiones.
Cliff señaló la capacidad de Tesla para restringir dónde opera su tecnología. Con su conocimiento de la ubicación a través de la navegación, el automóvil puede discernir áreas de uso adecuadas. Cuestionó la posibilidad de la activación de la tecnología en lugares inadecuados si no estaba diseñada para tales entornos.
El choque entre los reguladores, ejemplificado por el desacuerdo de Elon Musk con el ex presidente de la NTSB Robert Sumwalt, subraya una disputa de larga data. Los informes de la NTSB sobre accidentes fatales de Tesla destacaron problemas como la dependencia excesiva del piloto automático y el fracaso de la NHTSA para establecer limitaciones en los sistemas de control automatizados, vinculando estas brechas a factores que contribuyen a los accidentes.
Los esfuerzos de la NTSB para instar a la acción, incluidas las cartas a Musk y los llamamientos para implementar medidas de seguridad alineadas con las limitaciones de diseño del piloto automático, han enfrentado resistencia. A pesar de las repetidas apelaciones de los organismos reguladores, no ha habido respuesta de Musk o Tesla para abordar estas recomendaciones de seguridad.
En medio de la controversia, las opiniones divergen bruscamente. Algunos defienden Autopilot, sugiriendo que ha salvado más vidas que dañadas, mientras que los escépticos insinúan que el sistema podría autodesactivarse antes de un accidente, lo que permite a la compañía negar su participación activa. Sin embargo, la verdadera preocupación surge de las personas afectadas por accidentes, como la víctima de los Cayos de Florida, que cuestionan la concesión de tal tecnología potencialmente peligrosa en las carreteras, comparándolo con un arma mortal.
Más allá de los conductores de Tesla, las discusiones se han centrado en los actores desprevenidos en esta narrativa tecnológica: otros conductores, peatones y ciclistas, dibujados en una vasta simulación por computadora sin su consentimiento. Surgen preguntas sobre quién defiende sus derechos y salvaguarda su bienestar dentro de este panorama tecnológico en desarrollo. La pregunta fundamental persiste: ¿por qué son involuntariamente parte de la historia de Tesla y quién garantiza su protección?