Geschäft

Elon Musk sagte, dass ein Tesla bis 2018 durch das Land fahren könnte. Einer stürzte gerade aus einer Garage.

Elon Musk sagte, dass ein Tesla bis 2018 durch das Land fahren könnte. Einer stürzte gerade aus einer Garage.

Als die Frau von Mangesh Gururaj das Haus verließ, um an einem Sonntag Anfang des Monats ihr Kind aus dem Matheunterricht abzuholen, schaltete sie ihr Tesla Model S an und drückte "Summon", eine Selbstparkfunktion, die der Elektroautohersteller als einen zentralen Schritt in Richtung Fahrerfreundlichkeit propagierte Autos.

Aber als die $ 65.000 Limousine sich aus der Garage zurückzog, sagte Gururaj, schlug das Auto abrupt in eine Wand ein und reißt sein vorderes Ende mit einem lauten Knacken weg. Der verstümmelte Tesla sah aus, als hätte er weitergefahren, sagte Gururaj, wenn seine Frau nicht auf die Bremse getreten wäre.

Niemand wurde verletzt, aber Gururaj war verblüfft: Das Auto war bei den einfachsten Manövern katastrophal gescheitert und hatte eines der grundlegendsten Merkmale der selbstfahrenden Technologie benutzt, die er und seine Familie unzählige Male bei höheren Geschwindigkeiten vertraut hatten.

"Das ist nur ein Unfall in der Garage. Du kannst das reparieren. Aber was wäre, wenn wir rufen würden und es ein Kind gibt, das es nicht gesehen hat?" sagte Gururaj, ein IT-Berater in North Carolina, der das Auto letztes Jahr gekauft hat. "Ich hatte viel Vertrauen in Tesla, als ein Auto, aber das ist weg… Du sprichst von einer großen Verbindlichkeit, und dein Leben steht auf dem Spiel."

Der Absturz ist ein peinliches Missgeschick für eine Technologie, die Tesla-Chef Elon Musk 2016 enthusiastisch enthüllte und sagte, dass es den Besitzern bald erlauben würde, einen Knopf zu drücken und ihre Autos quer durch das Land fahren zu lassen, um sie aufzufrischen.

Der Crash verdeutlicht aber auch das wachsende Vertrauensproblem der Fahrerassistenztechnologie und der selbstfahrenden Autos. Das Versprechen, autonom fahrende, robotergestützte, quasi-magische Wunderwägen zu sein, ist einer nuancierten Realität gewichen: Autos, die auch verarschen, verwirrt werden oder abstürzen, oft mit wenig Vorwarnung oder Erklärung.

Es ist nicht das erste Mal, dass die Sicherheit und die Fähigkeiten der "Beschwörung" in Frage gestellt werden. Im Jahr 2016 sagte ein Tesla-Besitzer in Utah, dass sein Model S schurken würde, nachdem er es geparkt hatte, vorwärts taumelte und sich unter einem geparkten Anhänger aufspießte. Tesla sagte, dass die Protokolle des Autos zeigten, dass der Eigentümer schuld war, aber später "Beschwörung" mit einer neuen Eigenschaft aktualisiert, die den Unfall verhindert haben könnte.

Als ein Tesla-Sprecher nach Einzelheiten des Gururaj-Absturzes gefragt wurde, wies er nur auf die Bedienungsanleitung des Autos hin, die eine "Beta-Funktion" beschwöre und sagt, dass das Auto eine Reihe gewöhnlicher Objekte, darunter etwas niedriger als die Stoßstange oder dergleichen, nicht erkennen kann schmal wie ein Fahrrad.

Fahrerassistenzsysteme wie der "Autopilot" von Tesla waren an einem winzigen Bruchteil der Autounfälle beteiligt, und die Unternehmen, die die Technologien entwickeln, sagen, dass sie auf lange Sicht die Verkehrssicherheit erhöhen und Leben retten werden. Die Untersuchung der seltenen Unfälle, so fügen sie hinzu, ist fehlgeleitet in einem Land, in dem letztes Jahr mehr als 40.000 Menschen auf der Straße ums Leben kamen.

Aber die Ursachen der Kollisionen sind oft ein Mysterium, so dass Fahrer wie Gururaj tief erschüttert sind von der Möglichkeit, dass sie wieder passieren könnten. Unternehmen erzwingen einen eingeschränkten Zugang zu den internen Computerprotokollen der Autos und enthüllen in der Regel wenig darüber, was schief gelaufen ist. Informationen über die Interaktion von Sensoren und Computern von Autos sind proprietär und sollten in einer wettbewerbsintensiven Branche geheim gehalten werden.

Diese Ungewissheit hat dazu beigetragen, dass Autofahrer über eine Technologie fürchten, die noch nicht für den öffentlichen Gebrauch erprobt wurde. Zwei öffentliche Umfragen, die im Juli vom Think Tank der Brookings Institution und den Nonprofit Advocates für Highway und Auto Safety veröffentlicht wurden, gaben an, dass mehr als 60 Prozent der befragten Amerikaner sagten, sie seien nicht bereit, in einem selbstfahrenden Auto zu fahren .

Tesla sagt, dass Autobesitzer die Bewegung und Umgebung ihres Fahrzeugs ständig überwachen müssen und bereit sein müssen, jederzeit anzuhalten. Aber Tesla stellt gleichzeitig seine selbstfahrende Technologie als leistungsfähiger als menschliche Fahrer dar: Teslas Website verspricht "volle selbstfahrende Hardware auf allen Autos" und sagt, dass sie "auf einer Sicherheitsstufe arbeiten, die wesentlich größer ist als die eines menschlichen Fahrers". "

Cathy Chase, Präsidentin der Advocates für Highway und Auto Safety, sagte, Teslas Strategie der Beta-Test-Technologien mit normalen Fahrern auf öffentlichen Straßen sei "unglaublich gefährlich".

"Menschen werden in ein falsches Gefühl der Sicherheit eingelullt" darüber, wie sicher oder fähig die Autos wirklich sind, sagte Chase. "Der Tesla-Ansatz ist bestenfalls riskant und im schlimmsten Fall tödlich."

Teslas Autopilot wurde in hochkarätige Abstürze verwickelt. Im Jahr 2016 wurde ein Tesla-Besitzer in Florida getötet, als sein Modell S, das auf Autopilot fuhr, in einen Traktortrailer einbrach, der vor ihm auf der Autobahn kreuzt. Das Auto wurde nicht langsamer oder stoppte, um den Unfall zu verhindern, aber die Verkehrssicherheits-Ermittler des Bundesstaates zitierten das Unternehmen nicht wegen irgendwelcher Sicherheitsmängel und sagten, Autopilot benötige die ständige und volle Aufmerksamkeit des Fahrers.

In Kalifornien haben Tesla-Fahrzeuge in diesem Jahr in die Rückseiten eines Streifenwagens und eines geparkten Löschfahrzeugs eingeschlagen, während sie auf dem Autopiloten fahren. Das National Transportation Safety Board untersucht einen weiteren Autopilot-Unfall im März, bei dem ein kalifornischer Fahrer getötet wurde, nachdem sein Model X in den letzten drei Sekunden automatisch auf 70 mph beschleunigt hatte, bevor er in eine Autobahnschranke eindrang.

Tesla hat einige der vergangenen Autopilotabstürze für menschliche Fehler verantwortlich gemacht, was darauf hindeutet, dass die Leute auf dem Fahrersitz versehentlich auf das Pedal getreten sind oder nicht aufgepasst haben. Die Firma hat die Autos auch so entworfen, dass sie die Fahrer immer wieder warnen, dass sie wachsam bleiben und blinkende Benachrichtigungen, wenn zum Beispiel die Hände des Fahrers nicht am Lenkrad erfasst werden können.

Gururaj sagte, Tesla habe Computer-Logs aus dem Auto gezogen, um den Absturz in seiner Garage zu untersuchen. Aber das Unternehmen sagte ihm, dass es keine Informationen über das Geschehen geben würde und fügte in einer E-Mail hinzu: "Sie sind selbst während des Beschwörungsmodus für den Betrieb Ihres Fahrzeugs verantwortlich."

Gururajs Familie, sagte er, habe im letzten Jahr Hunderte Male "Summon" benutzt und gesagt: "Wir dachten, das sei das coolste Feature." Aber er sagte, dass er aufhören wird, die Funktionen zu benutzen, aus Angst vor Fehlfunktionen während der Fahrt. Er sagte auch, er sei entnervt von Teslas Antwort auf die Frage, warum der Mensch nicht schnell genug eingriff, und nicht, warum sich das Auto überhaupt in eine Mauer stürzte.

"Sie wollen, dass wir uns auf die Technologie verlassen, weil ihre Reaktionszeit schneller ist als bei Menschen. Das ist das ganze Konzept der Automatisierung", sagte er. "Wenn sie sagen, dass es Sache des Kunden ist, es zu stoppen, ist das wirklich beunruhigend. Wenn das Auto etwas auf der Vorderseite oder auf der Seite nicht wahrnehmen kann, dann sollten sie das nicht als Feature aufführen dein Leben steht auf dem Spiel. "

Post Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.