
Die Washington Post stellt sich in Frage, warum Teslas Autopilot in Bereichen betrieben werden kann, in denen sie nicht verwendet werden soll.
Der Artikel der Washington Post vom 10. Dezember 2023 untersucht, warum Teslas Autopilot auf für ihn ungeeigneten Straßen aktiviert wird. Dieses Thema hat erhebliche Debatten ausgelöst, wie aus den 3.600 Kommentaren hervorgeht, die in nur 12 Stunden seit Veröffentlichung des Artikels gesammelt wurden.
Der tragische Unfall in der Nähe von Key Largo, in den ein Tesla mit Autopilot verwickelt war, zeichnet ein düsteres Bild. Obwohl das System nicht für Landstraßen gedacht ist, ignorierte das Auto wichtige Signale – ein Stoppschild, ein blinkendes Licht und fünf Warnschilder, die auf das bevorstehende Ende der Straße hinwiesen. Der daraus resultierende Unfall führte zum Tod einer Person und zu schweren Verletzungen einer anderen Person. Es geht um mehr als bloße Ablenkung des Fahrers; es offenbart einen tieferen Fehler in der Funktionsweise des Autopiloten.
Wenn man über Elon Musk, Tesla und die gefeierte Autopilot-Technologie nachdenkt, ist es wichtig, sich die Videobeweise anzuschauen und zu bedenken:
Warum wurde der Autopilot auf einer ungeeigneten Straße aktiviert?
Wie konnte der Autopilot die offensichtlichen Markierungen einer T-Kreuzung nicht erkennen und nicht darauf reagieren?
Dieser tragische Vorfall stellt unser Verständnis von den Grenzen der Technologie in Frage und wirft kritische Fragen zu ihrem verantwortungsvollen Einsatz auf.
Tesla hat in verschiedenen Dokumenten und Mitteilungen offen zugegeben, dass Autosteer, die Kernfunktion des Autopiloten, für Autobahnen mit kontrolliertem Zugang gedacht ist, und seine Einschränkungen bei Hügeln, scharfen Kurven und ungeeigneten Straßenbedingungen ausführlich erläutert. Obwohl Tesla über die technischen Möglichkeiten verfügt, den Autopiloten geografisch einzuschränken, hat das Unternehmen keine konkreten Schritte unternommen, um seine Nutzung einzuschränken, was Fragen nach dem Grund aufwirft.
Eine plausible Erklärung könnte ein Konflikt zwischen dem National Transportation Safety Board (NTSB) und der National Highway Traffic Safety Administration (NHTSA) sein. Nach dem tödlichen Unfall des Tesla Model S im Jahr 2016, bei dem der Fahrer Joshua Brown ums Leben kam, plädierte das NTSB für Einschränkungen, wo Fahrerassistenzsysteme aktiviert werden dürfen. Da das NTSB jedoch keine Regulierungsbefugnis über Tesla hatte, konnte es seine Empfehlungen nicht durchsetzen. Die NHTSA, die für die Festlegung von Autosicherheitsstandards verantwortlich ist, wurde für ihre Untätigkeit kritisiert, was zu Spannungen zwischen den Behörden führte.
NTSB-Vorsitzende Jennifer Homendy drückte ihre Frustration aus und betonte, dass das Versäumnis der NHTSA, zu regulieren, wo Teslas Technologie eingesetzt wird, ein systemisches Sicherheitsproblem widerspiegelt. Sie drängte auf Maßnahmen und fragte, wie viele Menschenleben noch verloren gehen müssen, bevor regulatorische Schritte unternommen werden. In ihrer Reaktion betonte die NHTSA ihr Engagement für die Sicherheit, hielt es jedoch für komplex und ressourcenintensiv, sicherzustellen, dass Systeme wie der Tesla Autopilot unter bestimmten Bedingungen funktionieren, was darauf hindeutet, dass dies das Problem möglicherweise nicht lösen wird.
Homendy blieb skeptisch und bemerkte die Tendenz von Behörden und Industrie, die Empfehlungen des NTSB zu ignorieren, bis weitere Tragödien geschehen. Tesla hat in Rechtsstreitigkeiten und öffentlichen Stellungnahmen die Verantwortung für Unfälle mit Autopilot immer wieder auf die Fahrer abgewälzt und erklärt, dass der Fahrer die akzeptable Betriebsumgebung des Autos bestimmt.
Diese Situation unterstreicht die komplexe Regulierungslandschaft, in der die Abgrenzung der Verantwortung zwischen Herstellern, Regulierungsbehörden und Fahrern trotz des dringenden Bedarfs an verbesserten Sicherheitsmaßnahmen in fortschrittlichen Fahrerassistenzsystemen wie dem Autopiloten von Tesla weiterhin ein Streitpunkt ist.
Der ehemalige NHTSA-Chef Steven Cliff, der über Regulierungsansätze nachdachte, bemerkte die vorsichtige Haltung und verwies auf das frühere Mandat der Behörde, das Unternehmen wie Tesla dazu verpflichtete, Unfalldaten im Zusammenhang mit fortschrittlichen Fahrerassistenzsystemen (ADAS) zu melden. Trotz dieser Datenerfassung kann der Übergang von dieser Phase zur Festlegung endgültiger Regeln, falls erforderlich, ein langwieriger Prozess sein. Teslas Ansatz tendiert laut Cliff dazu, den Betreibern die Möglichkeit zu geben, Sicherheitsstandards festzulegen, ihnen aber gleichzeitig Flexibilität bei der Entscheidungsfindung zu lassen.
Cliff wies darauf hin, dass Tesla in der Lage sei, den Einsatzort seiner Technologie einzuschränken. Dank der Standortinformationen aus der Navigation kann das Auto geeignete Einsatzbereiche erkennen. Er stellte die Möglichkeit in Frage, die Technologie auch an ungeeigneten Orten zu aktivieren, wenn sie nicht für solche Umgebungen konzipiert sei.
Der Konflikt zwischen den Regulierungsbehörden, der sich beispielsweise in Elon Musks Meinungsverschiedenheit mit dem ehemaligen Vorsitzenden des NTSB, Robert Sumwalt, widerspiegelt, unterstreicht einen langjährigen Streit. Die Berichte des NTSB über tödliche Tesla-Unfälle haben Probleme wie das übermäßige Vertrauen der Fahrer in den Autopiloten und das Versäumnis der NHTSA, Beschränkungen für automatisierte Kontrollsysteme festzulegen, hervorgehoben und diese Lücken mit Unfallursachen in Verbindung gebracht.
Die Bemühungen der NTSB, Maßnahmen zu fordern, darunter Briefe an Musk und Forderungen nach der Umsetzung von Sicherheitsmaßnahmen, die den Konstruktionsbeschränkungen des Autopiloten entsprechen, stießen auf Widerstand. Trotz wiederholter Appelle von Aufsichtsbehörden gab es von Musk oder Tesla keine Reaktion auf diese Sicherheitsempfehlungen.
Inmitten der Kontroverse gehen die Meinungen weit auseinander. Einige verteidigen den Autopiloten, da er mehr Leben gerettet als Schaden angerichtet hat, während Skeptiker unterstellen, das System könne sich vor einem Unfall selbst deaktivieren, sodass das Unternehmen seine aktive Beteiligung abstreiten könne. Die wirkliche Sorge kommt jedoch von den von Unfällen betroffenen Personen, wie dem Opfer in den Florida Keys, die die Zulassung einer derart potenziell gefährlichen Technologie auf den Straßen in Frage stellen und sie mit einer tödlichen Waffe vergleichen.
Über die Tesla-Fahrer hinaus sind nun auch die ahnungslosen Akteure dieser technologischen Erzählung ins Gespräch gekommen – andere Autofahrer, Fußgänger und Radfahrer –, die ohne ihr Einverständnis in eine riesige Computersimulation hineingezogen werden. Es stellt sich die Frage, wer sich in dieser sich entfaltenden technologischen Landschaft für ihre Rechte einsetzt und ihr Wohlergehen schützt. Die grundlegende Frage bleibt: Warum sind sie unwissentlich Teil der Tesla-Geschichte und wer sorgt für ihren Schutz?
--------Das Artikel Ist teilweise Auszug aus der Washington Post.