Il Washington Post si sta chiedendo perché l'Autopilot di Tesla sia utilizzabile in aree in cui non dovrebbe essere utilizzato.
L'articolo del Washington Post del 10 dicembre 2023 indaga sul motivo per cui l'Autopilot di Tesla si attiva su strade inadatte al suo utilizzo. Questo problema ha suscitato un dibattito significativo, evidente dai 3.600 commenti accumulati in sole 12 ore da quando la storia è stata pubblicata.
Il tragico incidente vicino a Key Largo che coinvolge una Tesla con il pilota automatico dipinge un quadro cupo. Nonostante il sistema non destinato alle strade rurali, l'auto ha ignorato i segnali cruciali: un segnale di stop, una luce lampeggiante e cinque segnali di avvertimento sull'imminente fine della strada. L'incidente risultante ha portato alla morte di un individuo e gravi ferite a un altro. Va oltre la semplice distrazione del conducente; espone un difetto più profondo nella funzionalità del pilota automatico.
Nel contemplare Elon Musk, Tesla e la celebre tecnologia Autopilot, è fondamentale assistere alle prove video e considerare:
Perché l'Autopilot si è attivato su una strada inadatta?
In che modo l'Autopilot non è riuscito a riconoscere e rispondere a marcatori evidenti di un'intersezione a T?
Questo tragico incidente sfida la nostra comprensione dei limiti della tecnologia e solleva domande critiche sulla sua implementazione responsabile.
Tesla ha apertamente riconosciuto in vari documenti e comunicazioni che Autosteer, la caratteristica principale dell'Autopilot, è pensato per autostrade ad accesso controllato, descrivendone i limiti intorno alle colline, le curve strette e le condizioni stradali inadatte. Nonostante possieda la capacità tecnica di limitare geograficamente il pilota automatico, Tesla non ha adottato misure definitive per limitarne l'utilizzo, sollevando dubbi sul perché.
Una spiegazione plausibile potrebbe riguardare uno scontro tra il National Transportation Safety Board (NTSB) e la National Highway Traffic Safety Administration (NHTSA). Dopo il fatale incidente della Tesla Model S del 2016, in cui il pilota Joshua Brown ha perso la vita, l'NTSB ha sostenuto limitazioni su dove la tecnologia di assistenza alla guida potrebbe attivarsi. Tuttavia, in mancanza di autorità di regolamentazione su Tesla, l'NTSB non poteva far rispettare le sue raccomandazioni. NHTSA, responsabile della definizione degli standard di sicurezza automobilistica, è stata criticata per la sua inerzia, portando a tensioni tra le agenzie.
La presidente dell'NTSB Jennifer Homendy ha espresso frustrazione, sottolineando che l'incapacità di NHTSA di regolamentare dove opera la tecnologia di Tesla riflette un problema di sicurezza sistemico. Ha sollecitato l'azione, chiedendosi quante altre vite devono essere perse prima che vengano intraprese misure normative. In risposta, NHTSA ha sottolineato il suo impegno per la sicurezza, ma ha ritenuto complesso e ad alta intensità di risorse garantire la funzione di sistemi come il pilota automatico Tesla entro condizioni designate, suggerendo che potrebbe non risolvere il problema.
Homendy è rimasto scettico, notando la tendenza delle agenzie e delle industrie a respingere le raccomandazioni dell'NTSB fino a quando non si verificheranno altre tragedie. Tesla, nei casi legali e nelle dichiarazioni pubbliche, ha costantemente spostato la responsabilità sui conducenti per gli incidenti coinvolti nell'autopilota, affermando che il conducente determina l'ambiente operativo accettabile dell'auto.
Questa situazione sottolinea un panorama normativo complesso, in cui la definizione della responsabilità tra produttori, regolatori e conducenti rimane un punto di contesa, nonostante la pressante necessità di misure di sicurezza rafforzate nei sistemi avanzati di assistenza alla guida come l'Autopilot di Tesla.
L'ex capo della NHTSA Steven Cliff, riflettendo sugli approcci normativi, ha notato la posizione cauta, evidenziando il mandato passato dell'agenzia per aziende come Tesla di segnalare i dati sugli incidenti che coinvolgono sistemi avanzati di assistenza alla guida (ADAS). Nonostante questa raccolta di dati, la transizione da questa fase alla definizione delle regole finali, se necessario, può essere un processo lungo. L'approccio di Tesla, secondo Cliff, tende a consentire agli operatori di determinare gli standard di sicurezza consentendo al contempo flessibilità nel processo decisionale.
Cliff ha sottolineato la capacità di Tesla di limitare il luogo in cui opera la sua tecnologia. Con la sua conoscenza della posizione tramite la navigazione, l'auto può distinguere le aree di utilizzo adatte. Ha messo in dubbio la possibilità di attivazione della tecnologia in luoghi inadatti se non fosse stata progettata per tali ambienti.
Lo scontro tra i regolatori, esemplificato dal disaccordo di Elon Musk con l'ex presidente della NTSB Robert Sumwalt, sottolinea una disputa di vecchia data. I rapporti dell'NTSB sugli incidenti mortali di Tesla hanno evidenziato problemi come l'eccessiva dipendenza del conducente dall'autopilota e l'incapacità di NHTSA di stabilire limitazioni sui sistemi di controllo automatizzati, collegando queste lacune a fattori che contribuiscono agli incidenti.
Gli sforzi di NTSB per sollecitare l'azione, comprese le lettere a Musk e le richieste di implementare misure di sicurezza allineate con i limiti di progettazione dell'Autopilot, hanno affrontato resistenza. Nonostante i ripetuti appelli degli organismi di regolamentazione, non c' è stata alcuna risposta da Musk o Tesla per rispondere a queste raccomandazioni di sicurezza.
Tra le polemiche, le opinioni divergono nettamente. Alcuni difendono l'Autopilot, suggerendo che ha salvato più vite che danni, mentre gli scettici insinuano che il sistema potrebbe auto-disabilitarsi prima di un incidente, consentendo all'azienda di negare il suo coinvolgimento attivo. Tuttavia, la vera preoccupazione emerge dalle persone colpite da incidenti, come la vittima di Florida Keys, che mettono in dubbio l'indennità di tale tecnologia potenzialmente pericolosa sulle strade, paragonandola a un'arma mortale.
Al di là dei conducenti di Tesla, le discussioni si sono rivolte agli ignari attori di questa narrativa tecnologica-altri conducenti, pedoni e ciclisti-coinvolti in una vasta simulazione al computer senza il loro consenso. Sorgono domande su chi difende i propri diritti e salvaguarda il proprio benessere all'interno di questo panorama tecnologico in evoluzione. La domanda fondamentale persiste: perché fanno parte involontariamente della storia di Tesla e chi garantisce la loro protezione?