
Il Washington Post si chiede perché l'autopilota di Tesla sia operabile nelle aree in cui non dovrebbe essere utilizzato.
L'articolo del Washington Post del 10 dicembre 2023 indaga sul motivo per cui l'Autopilot di Tesla si attiva su strade non adatte al suo utilizzo. Questo problema ha suscitato un dibattito significativo, evidente dai 3.600 commenti raccolti in sole 12 ore da quando la storia è stata pubblicata.
Il tragico incidente nei pressi di Key Largo che ha coinvolto una Tesla con Autopilot dipinge un quadro fosco. Nonostante il sistema non fosse pensato per le strade rurali, l'auto ha ignorato segnali cruciali: un segnale di stop, una luce lampeggiante e cinque segnali di avvertimento sulla fine imminente della strada. L'incidente che ne è derivato ha causato la morte di una persona e gravi ferite a un'altra. Va oltre la semplice distrazione del conducente; espone un difetto più profondo nella funzionalità di Autopilot.
Nel riflettere su Elon Musk, Tesla e la celebre tecnologia Autopilot, è fondamentale guardare le prove video e considerare:
Perché il pilota automatico si è attivato su una strada non adatta?
Come è possibile che l'Autopilot non sia riuscito a riconoscere e rispondere ai marcatori evidenti di un incrocio a T?
Questo tragico incidente mette alla prova la nostra comprensione dei limiti della tecnologia e solleva interrogativi critici sulla sua implementazione responsabile.
Tesla ha apertamente riconosciuto in vari documenti e comunicazioni che Autosteer, la funzionalità principale di Autopilot, è pensata per le autostrade ad accesso controllato, specificandone i limiti in prossimità di colline, curve strette e condizioni stradali non idonee. Nonostante possieda la capacità tecnica di limitare geograficamente Autopilot, Tesla non ha adottato misure definitive per limitarne l'utilizzo, sollevando domande sul perché.
Una spiegazione plausibile potrebbe riguardare uno scontro tra il National Transportation Safety Board (NTSB) e la National Highway Traffic Safety Administration (NHTSA). Dopo il fatale incidente del 2016 con la Tesla Model S, in cui il conducente Joshua Brown ha perso la vita, l'NTSB ha sostenuto delle limitazioni su dove la tecnologia di assistenza alla guida potesse attivarsi. Tuttavia, non avendo autorità di regolamentazione su Tesla, l'NTSB non è riuscito a far rispettare le sue raccomandazioni. L'NHTSA, responsabile della definizione degli standard di sicurezza delle auto, ha dovuto affrontare critiche per la sua inazione, portando a tensioni tra le agenzie.
La presidente dell'NTSB Jennifer Homendy ha espresso frustrazione, sottolineando che il fallimento della NHTSA nel regolamentare dove opera la tecnologia Tesla riflette un problema di sicurezza sistemico. Ha sollecitato un'azione, chiedendosi quante altre vite devono essere perse prima che vengano prese misure normative. In risposta, la NHTSA ha sottolineato il suo impegno per la sicurezza, ma ha ritenuto complesso e dispendioso in termini di risorse garantire che sistemi come Tesla Autopilot funzionino entro le condizioni designate, suggerendo che potrebbe non risolvere il problema.
Homendy è rimasto scettico, notando la tendenza delle agenzie e delle industrie a ignorare le raccomandazioni dell'NTSB finché non si verificano più tragedie. Tesla, in casi legali e dichiarazioni pubbliche, ha costantemente trasferito la responsabilità ai conducenti per gli incidenti che coinvolgono l'Autopilot, affermando che il conducente determina l'ambiente operativo accettabile dell'auto.
Questa situazione evidenzia un panorama normativo complesso, in cui la delimitazione delle responsabilità tra produttori, enti regolatori e conducenti resta un punto di contesa, nonostante l'urgente necessità di misure di sicurezza migliorate nei sistemi avanzati di assistenza alla guida come l'Autopilot di Tesla.
L'ex capo della NHTSA Steven Cliff, riflettendo sugli approcci normativi, ha notato la posizione cauta, evidenziando il mandato passato dell'agenzia per aziende come Tesla di segnalare i dati sugli incidenti che coinvolgono sistemi avanzati di assistenza alla guida (ADAS). Nonostante questa raccolta di dati, la transizione da questa fase alla definizione di regole definitive, se necessario, può essere un processo lungo. L'approccio di Tesla, secondo Cliff, tende a dare potere agli operatori per determinare gli standard di sicurezza, consentendo al contempo flessibilità nel processo decisionale.
Cliff ha sottolineato la capacità di Tesla di limitare i luoghi in cui opera la sua tecnologia. Grazie alla sua conoscenza della posizione tramite navigazione, l'auto può individuare le aree di utilizzo idonee. Ha messo in dubbio la possibilità di attivare la tecnologia in luoghi non idonei se non fosse stata progettata per tali ambienti.
Lo scontro tra i regolatori, esemplificato dal disaccordo di Elon Musk con l'ex presidente dell'NTSB Robert Sumwalt, sottolinea una disputa di lunga data. I report dell'NTSB sugli incidenti mortali di Tesla hanno evidenziato problemi come l'eccessiva dipendenza dei conducenti dall'Autopilot e l'incapacità della NHTSA di stabilire limitazioni sui sistemi di controllo automatizzati, collegando queste lacune ai fattori che contribuiscono agli incidenti.
Gli sforzi dell'NTSB per sollecitare un'azione, tra cui lettere a Musk e richieste di implementazione di misure di sicurezza allineate alle limitazioni di progettazione dell'Autopilot, hanno incontrato resistenza. Nonostante i ripetuti appelli degli enti normativi, non c'è stata alcuna risposta da parte di Musk o Tesla per affrontare queste raccomandazioni di sicurezza.
In mezzo alla controversia, le opinioni divergono nettamente. Alcuni difendono l'Autopilot, suggerendo che ha salvato più vite di quante ne abbia danneggiate, mentre gli scettici insinuano che il sistema potrebbe auto-disattivarsi prima di un incidente, consentendo all'azienda di negare il suo coinvolgimento attivo. Tuttavia, la vera preoccupazione emerge dalle persone coinvolte in incidenti, come la vittima delle Florida Keys, che mettono in dubbio l'ammissibilità di una tecnologia così potenzialmente pericolosa sulle strade, paragonandola a un'arma mortale.
Oltre ai conducenti Tesla, le discussioni si sono spostate sugli ignari attori di questa narrazione tecnologica, altri conducenti, pedoni e ciclisti, coinvolti in una vasta simulazione al computer senza il loro consenso. Sorgono domande su chi difende i loro diritti e salvaguarda il loro benessere in questo panorama tecnologico in evoluzione. La domanda fondamentale persiste: perché sono inconsapevolmente parte della storia Tesla e chi garantisce la loro protezione?
--------Questo articolo È in parte estratto dal Washington Post.