Die Washington Post stellt die Frage, warum Teslas Autopilot in Bereichen eingesetzt werden kann, in denen er nicht verwendet werden soll.
Der Artikel der Washington Post vom 10. Dezember 2023 untersucht, warum Teslas Autopilot auf Straßen aktiviert wird, die für seine Verwendung ungeeignet sind. Dieses Thema hat eine bedeutende Debatte ausgelöst, was aus den 3.600 Kommentaren hervor geht, die in nur 12 Stunden seit dem Start der Geschichte gesammelt wurden.
Der tragische Vorfall in der Nähe von Key Largo mit einem Tesla auf Autopilot zeichnet ein düsteres Bild. Trotz des Systems, das nicht für Landstraßen vorgesehen war, ignorierte das Auto wichtige Hinweise-ein Stoppschild, blinkendes Licht und fünf Warnschilder über das bevorstehende Straßen ende. Der daraus resultierende Absturz führte zum Tod einer Person und zu schweren Verletzungen einer anderen. Es geht über die bloße Ablenkung des Fahrers hinaus. Es enthüllt einen tieferen Fehler in der Funktional ität von Autopilot.
Bei der Betrachtung von Elon Musk, Tesla und der berühmten Autopilot-Technologie ist es wichtig, die Video beweise zu beobachten und Folgendes zu berücksichtigen:
Warum hat Autopilot auf einer ungeeigneten Straße aktiviert?
Wie konnte Autopilot offen sichtliche Marker einer T-Kreuzung nicht erkennen und darauf reagieren?
Dieser tragische Vorfall stellt unser Verständnis der Grenzen der Technologie in Frage und wirft kritische Fragen zu ihrer verantwortung vollen Umsetzung auf.
Tesla hat in verschiedenen Dokumenten und Mitteilungen offen anerkannt, dass Autos teer, das Kern merkmal von Autopilot, für Autobahnen mit kontrolliertem Zugang gedacht ist, wobei die Einschränkungen in Bezug auf Hügel, scharfe Kurven und ungeeignete Straßen verhältnisse aufgeführt sind. Trotz der technischen Fähigkeit, Autopilot geografisch einzu schränken, hat Tesla keine endgültigen Schritte unternommen, um seine Verwendung einzu schränken, was Fragen dazu auf wirft, warum.
Eine plausible Erklärung könnte einen Konflikt zwischen dem National Transport ation Safety Board (NTSB) und der National Highway Traffic Safety Administration (NHTSA) beinhalten. Nach dem tödlichen Tesla Model S-Unfall 2016, bei dem Fahrer Joshua Brown sein Leben verlor, befürwortete das NTSB Einschränkungen bei der Aktivierung der Fahrer assistenz technologie. Da das NTSB jedoch keine Regulierungs behörde für Tesla hatte, konnte es seine Empfehlungen nicht durchsetzen. NHTSA, ver antwort lich für die Festlegung von Autos icherheits standards, wurde wegen seiner Untätigkeit kritisiert, was zu Spannungen zwischen den Agenturen führte.
Die NTSB-Vorsitzende Jennifer Homendy äußerte sich frustriert und betonte, dass das Versäumnis von NHTSA, zu regulieren, wo Teslas Technologie arbeitet, ein systemisches Sicherheits problem wider spiegelt. Sie drängte auf Maßnahmen und stellte in Frage, wie viele weitere Menschen leben verloren gehen müssen, bevor regulator ische Schritte unternommen werden. Als Reaktion darauf betonte NHTSA sein Engagement für die Sicherheit, hielt es jedoch für komplex und ressourcen intensiv, sicher zustellen, dass Systeme wie Tesla Autopilot unter bestimmten Bedingungen funktionieren, was darauf hindeutet, dass das Problem möglicher weise nicht gelöst wird.
Homendy blieb skeptisch und bemerkte die Tendenz für Agenturen und Branchen, NTSB-Empfehlungen abzulehnen, bis weitere Tragödien eintreten. In Rechts fällen und öffentlichen Äußerungen hat Tesla die Verantwortung für Autopilot-Unfälle konsequent auf die Fahrer verlagert und erklärt, dass der Fahrer die akzeptable Betriebs umgebung des Fahrzeugs bestimmt.
Diese Situation unter streicht eine komplexe regulator ische Landschaft, in der die Abgrenzung der Verantwortung zwischen Herstellern, Aufsichts behörden und Fahrern trotz der dringenden Notwendigkeit verbesserter Sicherheits maßnahmen in fortschritt lichen Fahrer assistenz systemen wie Teslas Autopilot weiterhin umstritten ist.
Der frühere NHTSA-Chef Steven Cliff, der über regulator ische Ansätze nach dachte, bemerkte die vorsichtige Haltung und hob das frühere Mandat der Agentur für Unternehmen wie Tesla hervor, Crash-Daten mit fortschritt lichen Fahrer assistenz systemen (ADAS) zu melden. Trotz dieser Daten erfassung kann der Übergang von dieser Phase zur Festlegung endgültiger Regeln bei Bedarf ein langwieriger Prozess sein. Laut Cliff tendiert Teslas Ansatz dazu, die Betreiber zu befähigen, Sicherheits standards zu bestimmen und gleichzeitig Flexibilität bei der Entscheidung sfindung zu ermöglichen.
Cliff wies auf Teslas Fähigkeit hin, den Betrieb seiner Technologie einzu schränken. Mit seinen Standort kenntnissen über die Navigation kann das Auto geeignete Nutzungs bereiche erkennen. Er stellte die Erlaubnis der Technologie aktivierung an ungeeigneten Orten in Frage, wenn sie nicht für solche Umgebungen ausgelegt war.
Der Konflikt zwischen den Aufsichts behörden, der durch Elon Musks Meinungs verschiedenheit mit dem ehemaligen NTSB-Vorsitzenden Robert Sumwalt ver anschaulicht wird, unter streicht einen langjährigen Streit. In den Berichten des NTSB über tödliche Tesla-Unfälle wurden Probleme wie die übermäßige Abhängigkeit des Fahrers von Autopilot und das Versäumnis von NHTSA, Einschränkungen für automat isierte Steuerungs systeme festzulegen, hervor gehoben und diese Lücken mit Faktoren verbunden, die zu Unfällen beitragen.
Die Bemühungen von NTSB, Maßnahmen zu ergreifen, einschl ießlich Briefen an Musk und Forderungen nach Umsetzung von Sicherheits maßnahmen, die auf die Design beschränkungen von Autopilot abgestimmt sind, stießen auf Widerstand. Trotz wiederholter Appelle von Aufsichts behörden gab es keine Antwort von Musk oder Tesla, um diese Sicherheits empfehlungen anzugehen.
Inmitten der Kontroverse gehen die Meinungen stark auseinander. Einige verteidigen Autopilot, was darauf hindeutet, dass es mehr Leben gerettet als verletzt hat, während Skeptiker unterstellen, dass sich das System vor einem Absturz selbst deaktivieren könnte, wodurch das Unternehmen seine aktive Beteiligung verweigern kann. Die wirkliche Besorgnis zeigt sich jedoch bei Personen, die von Unfällen betroffen sind, wie dem Opfer von Florida Keys, die die Zulassung solch potenziell gefährlicher Technologien auf Straßen in Frage stellen und sie mit einer tödlichen Waffe vergleichen.
Über Tesla-Fahrer hinaus haben sich die Diskussionen an die ahnungslosen Akteure dieser techno logischen Erzählung gewandt-andere Fahrer, Fußgänger und Radfahrer-, die ohne ihre Zustimmung in eine umfangreiche Computers imulation verwickelt wurden. Es stellen sich Fragen, wer sich für ihre Rechte einsetzt und ihr Wohlergehen in dieser sich entfalten den techno logischen Landschaft schützt. Die grundlegende Frage bleibt bestehen: Warum sind sie unabsichtlich Teil der Tesla-Geschichte und wer sorgt für ihren Schutz?
------- Dieser Artikel stammt teilweise aus der Washington Post.