The Washington Post is questioning why Tesla's Autopilot is operable in areas where it's not supposed to be used.

The Washington Post se ptá, proč je Autopilot Tesly provozuschopný v oblastech, kde by neměl být používán.

Článek Washington Post z 10. prosince 2023 zkoumá, proč se Autopilot Tesly aktivuje na silnicích nevhodných pro jeho použití. Toto téma vyvolalo značnou debatu, jak je patrné z 3 600 komentářů nashromážděných za pouhých 12 hodin od zveřejnění příběhu.

Tragický incident poblíž Key Largo zahrnující Tesla na autopilotu vykresluje ponurý obraz. Navzdory systému, který nebyl určen pro venkovské silnice, auto nebralo v potaz zásadní podněty – stopku, blikající světlo a pět varovných signálů o blížícím se konci silnice. Následná nehoda vedla ke smrti jednoho jednotlivce a těžkému zranění dalšího. Jde nad rámec pouhého rozptýlení řidiče; odhaluje hlubší chybu ve funkčnosti Autopilota.

Při zvažování Elona Muska, Tesly a slavné technologie Autopilota je zásadní být svědkem důkazů na videu a zvážit:

Proč se autopilot aktivoval na nevhodné silnici?
Jak autopilot nedokázal rozpoznat a reagovat na evidentní značky křižovatky T?
Tento tragický incident zpochybňuje naše chápání technologických omezení a vyvolává kritické otázky ohledně jejich zodpovědné implementace.

Autopilot

Tesla v různých dokumentech a sděleních otevřeně přiznala, že Autosteer, základní funkce Autopilota, je určen pro dálnice s řízeným přístupem, přičemž podrobně popisuje jeho omezení kolem kopců, ostrých zatáček a nevhodných podmínek na vozovce. Navzdory technické schopnosti omezit autopilota geograficky, Tesla nepodnikla definitivní kroky k omezení jeho použití, což vyvolává otázky, proč.

Jedno přijatelné vysvětlení by mohlo zahrnovat střet mezi Národním úřadem pro bezpečnost dopravy (NTSB) a Národním úřadem pro bezpečnost silničního provozu (NHTSA). Po fatální havárii Tesly Model S v roce 2016, při které přišel o život řidič Joshua Brown, se NTSB zasadila o omezení míst, kde by se mohla aktivovat technologie asistence pro řidiče. Jelikož však NTSB neměla nad Teslou regulační pravomoc, nemohla svá doporučení prosadit. NHTSA, odpovědná za stanovení bezpečnostních standardů pro auta, čelila kritice za svou nečinnost, což vedlo k napětí mezi agenturami.

Předsedkyně NTSB Jennifer Homendy vyjádřila frustraci a zdůraznila, že neschopnost NHTSA regulovat, kde technologie Tesla funguje, odráží systémový bezpečnostní problém. Naléhala na akci a zpochybňovala, kolik dalších životů musí být ztraceno, než budou přijata regulační opatření. V reakci na to NHTSA zdůraznila svůj závazek k bezpečnosti, ale považovala za složité a náročné na zdroje zajistit fungování systémů jako Tesla Autopilot v určených podmínkách, což naznačuje, že to nemusí problém vyřešit.

Homendy zůstal skeptický a zaznamenal tendenci agentur a průmyslových odvětví odmítat doporučení NTSB, dokud nedojde k dalším tragédiím. Tesla v právních případech a veřejných prohlášeních důsledně přesouvá odpovědnost za nehody způsobené Autopilotem na řidiče a uvádí, že řidič určuje přijatelné provozní prostředí vozu.

Tato situace podtrhuje složité regulační prostředí, kde vymezení odpovědnosti mezi výrobci, regulačními orgány a řidiči zůstává předmětem sporu, a to navzdory naléhavé potřebě zvýšených bezpečnostních opatření v pokročilých asistenčních systémech pro řidiče, jako je Autopilot společnosti Tesla.

Bývalý šéf NHTSA Steven Cliff, uvažující o regulačních přístupech, poznamenal opatrný postoj a zdůraznil minulý mandát agentury pro společnosti jako Tesla, aby hlásily data o nehodách zahrnujících pokročilé asistenční systémy pro řidiče (ADAS). Navzdory tomuto sběru dat může být přechod z této fáze ke stanovení konečných pravidel v případě potřeby zdlouhavým procesem. Přístup Tesly se podle Cliffa přiklání k tomu, že operátorům umožňuje určovat bezpečnostní standardy a zároveň umožňuje flexibilitu v rozhodování.

Cliff poukázal na schopnost Tesly omezit, kde její technologie funguje. Díky znalosti polohy pomocí navigace dokáže vůz rozpoznat vhodné oblasti použití. Zpochybnil možnost aktivace technologie na nevhodných místech, pokud nebyla navržena pro taková prostředí.

Střet mezi regulátory, jehož příkladem je nesouhlas Elona Muska s bývalým předsedou NTSB Robertem Sumwaltem, podtrhuje dlouhodobý spor. Zprávy NTSB o smrtelných haváriích Tesly upozornily na problémy, jako je nadměrné spoléhání se řidičů na Autopilota a neschopnost NHTSA stanovit omezení pro automatizované řídicí systémy, spojující tyto mezery s faktory přispívajícími k nehodám.

Úsilí NTSB naléhat na akci, včetně dopisů Muskovi a volání po zavedení bezpečnostních opatření v souladu s konstrukčními omezeními Autopilota, narazilo na odpor. Navzdory opakovaným výzvám regulačních orgánů nepřišla žádná odpověď od Muska ani Tesly, kteří by se těmito bezpečnostními doporučeními zabývali.

Uprostřed kontroverze se názory prudce rozcházejí. Někteří obhajují Autopilota a naznačují, že zachránil více životů, než ublížil, zatímco skeptici naznačují, že se systém před havárií sám deaktivuje, což společnosti umožňuje popřít svou aktivní účast. Skutečné obavy však vyvstávají z jednotlivců postižených nehodami, jako je oběť Florida Keys, kteří zpochybňují povolenost takové potenciálně nebezpečné technologie na silnicích a přirovnávají ji ke smrtící zbrani.

Kromě řidičů Tesly se diskuse stočily k nic netušícím aktérům tohoto technologického příběhu – ostatním řidičům, chodcům a cyklistům – nakresleným do rozsáhlé počítačové simulace bez jejich souhlasu. Vyvstávají otázky, kdo hájí jejich práva a chrání jejich blahobyt v tomto rozvíjejícím se technologickém prostředí. Základní otázka přetrvává: proč jsou nevědomky součástí příběhu Tesly a kdo zajišťuje jejich ochranu?

--------Tento  článek  je  částečně  excerpováno  z Washington Post.

Zpět na blog

Napište komentář

Upozorňujeme, že komentáře musí být před zveřejněním schváleny.