Skip to main content

Update: 11:06 Uhr EST: Absatz 7 hinzugefügt, um die Wahrscheinlichkeit zu zeigen, dass der Fahrer einen medizinischen Notfall hat. Die California Highway Patrol sah das Fahrzeug und stellte fest, dass der Fahrer wach war, nachdem er das Auto eingeholt hatte.

Ein Tesla Model Y mit einem schlafenden Fahrer wurde kürzlich auf der Autobahn I-15 in der Nähe von Temecula, Kalifornien, gesichtet, was beweist, dass Menschen und Medien immer noch ein großes Missverständnis und einen verantwortungslosen Ton in Bezug auf die Fähigkeiten halbautonomer Fahrzeuge haben.

Laut einem Bericht von KTLA 5 wurde eine Frau in einem Tesla Model Y mehr als fünfzehn Minuten lang auf der kalifornischen Interstate von einem anderen Fahrer verfolgt, um die Frau zu wecken, die die halbautonomen Fahrfunktionen des Autoherstellers nutzte.

Der Bericht und der Vorfall beweisen, dass es immer noch große Missverständnisse in Bezug auf die Fähigkeiten halbautonomer Fahrsysteme gibt, einschließlich Teslas Full Self-Driving und Autopilot, die von den Benutzern verlangen, wachsam zu bleiben und bereit zu sein, das Fahrzeug jederzeit zu übernehmen.

Fahrer nutzen halbautonome Fahrzeugfunktionen oft unverantwortlich, und soziale Medien haben immer wieder bewiesen, dass Menschen die Möglichkeiten nutzen, obwohl sie nicht vollständig autonom sind.

Es ist kein Geheimnis, dass Menschen und Unternehmen alles getan haben, um sich von der Verantwortung zu befreien, aufmerksam zu sein, während das Auto einige Aufgaben alleine erledigt. Mit der Einführung fortschrittlicher Fahrerassistenzsysteme (ADAS) in den letzten Jahren haben Fahrer die Funktionen genutzt, um stattdessen auf ihrem Telefon zu spielen, Bücher zu lesen, zu essen oder sogar Schlaf nachzuholen.

Die Risiken, die mit diesem Verhalten einhergehen, sind jedoch potenziell katastrophal. Wer diese Funktionen verantwortungslos nutzt, bringt sich und jeden anderen Verkehrsteilnehmer in Gefahr, denn wenn das Fahrzeug Hilfe benötigt oder in eine Situation gerät, in der es nicht sicher reagieren würde, ist der Fahrer für die Übernahme verantwortlich. Darüber hinaus kann ein Unfall je nach verwendetem Fahrzeug als Teslas oder eines anderen Herstellers verschuldet werden, und Fälle wie dieser können die Zukunft des teilautonomen und autonomen Fahrens aufgrund von Skepsis um Jahre zurückwerfen.

Es besteht die Möglichkeit, dass der Fahrer einen medizinischen Notfall hatte oder versehentlich eingeschlafen ist, wobei die Tesla-Funktionen den Fahrer und andere sicher hielten. Die Polizei gab an, dass der Fahrer bis zu zwei Minuten nach Erhalt der Anrufe wegen des Fahrers eingeholt wurde und der Fahrer zu diesem Zeitpunkt aufmerksam war.

Die Darstellung der Situation in den Medien beweist jedoch auch, dass viele über die Fähigkeiten von Teslas weitgehend uninformiert sind. Während Teslas Full Self-Driving-Suite für Kontroversen über ihren Namen gesorgt hat, erinnert der Autohersteller diejenigen, die sie nutzen, weiterhin daran, wachsam zu bleiben, da die Autos nicht wirklich selbst fahren können.

Im FAQ-Bereich von Tesla auf der Seite Autopilot und vollständiges Selbstfahren beantwortet das Unternehmen die Frage: „Muss ich bei der Verwendung des Autopiloten trotzdem aufpassen?“:

„Ja. Autopilot ist ein praktisches Fahrerassistenzsystem, das nur mit einem voll aufmerksamen Fahrer verwendet werden soll. Es macht einen Tesla weder zu einem selbstfahrenden noch zu einem autonomen Auto.

Bevor Sie den Autopiloten aktivieren, müssen Sie zustimmen, „Ihre Hände immer am Lenkrad zu lassen“ und „immer die Kontrolle und Verantwortung für Ihr Auto zu behalten“. Sobald der Autopilot aktiviert ist, gibt er auch eine eskalierende Reihe von visuellen und akustischen Warnungen aus, die Sie daran erinnern, Ihre Hände auf das Lenkrad zu legen, wenn ein unzureichendes Drehmoment aufgebracht wird. Wenn Sie diese Warnungen wiederholt ignorieren, werden Sie für die Verwendung des Autopiloten während dieser Fahrt gesperrt.

Sie können alle Funktionen des Autopiloten jederzeit außer Kraft setzen, indem Sie lenken, die Bremsen betätigen oder den Tempomathebel zum Deaktivieren verwenden.“

Medien, die das Fahrzeug als „einen selbstfahrenden Tesla“ bezeichnen, ist ein schlechter Dienst für die Menschen und das Unternehmen. Teslas fahren nicht selbst, da die Fahrzeuge gemäß den Levels of Driving Automation der Society of Automotive Engineers als Level 2 definiert sind. Level-2-Systeme bekräftigen, dass der Fahrer immer noch für das Fahren des Autos verantwortlich ist, wenn diese Systeme aktiviert sind. „Sie müssen diese Supportfunktionen ständig überwachen“, sagt die SAE. Level-3- bis Level-5-Systeme behaupten, dass der Bediener das Auto nicht fährt, aber Level-5-Systeme sind die einzigen, die ausdrücklich als „selbstfahrend“ gekennzeichnet sind.

„Diese Funktion kann das Fahrzeug unter allen Bedingungen fahren“, heißt es in der SAE-Tabelle.

gleiche Autonomiestufen

Kredit: Gesellschaft der Automobilingenieure

Jüngste Bewertungen von Consumer Reports zeigten, dass Teslas größter Fehler die Fahrerüberwachung war. Viele Systeme verwenden in die Kabine gerichtete Kameras, um das Augenverhalten zu überwachen und sicherzustellen, dass der Bediener seine Augen auf der Straße behält. Teslas verwenden eine Reihe von akustischen und visuellen Hinweisen, um den Fahrer auf seine Unaufmerksamkeit aufmerksam zu machen, und Lenkradsensoren sorgen dafür, dass der Fahrer die Hände am Lenkrad behält.

Es wurden jedoch verschiedene Cheat-Geräte über das Internet vermarktet, und in diesem Fall scheint der Fahrer seine Hände am Lenkrad zu haben, während er döst.

Tesla aktivierte die kamerabasierte Fahrerüberwachung im Mai 2021. „Die Kabinenkamera über Ihrem Rückspiegel kann jetzt die Unaufmerksamkeit des Fahrers erkennen und warnen, während der Autopilot aktiviert ist“, sagte Tesla in den Notizen. Tests der Fahrerüberwachungstests von Tesla zeigten, dass das System in einigen Fällen effektiv war, insbesondere beim Betrachten von Mobiltelefonen, wobei die Warnungen innerhalb von 15 Sekunden eintrafen.

Die potenzielle Verantwortungslosigkeit der Benutzer bringt große Risiken für die Verkehrsteilnehmer und die Unternehmen mit sich, die diese Fahrerassistenzprogramme entwickeln. Während es Problemumgehungen durch die zuvor erwähnten Cheat-Geräte gibt, müssen die Menschen wissen, dass ihre Verantwortungslosigkeit sie oder andere ihr Leben kosten könnte.

.

Tesla mit schlafendem Fahrer beweist, dass es immer noch Missverständnisse und Verantwortungslosigkeit in Bezug auf Autonomie gibt

Leave a Reply