KOLIZJE I śMIERTELNE WYPADKI. RAPORT NIE ZOSTAWIA SUCHEJ NITKI NA AUTOPILOCIE TESLI

Samochody elektryczne Tesli zdobyły ogromną popularność dzięki swojej innowacyjności na rynku motoryzacyjnym. Zaawansowane funkcje, takie jak autopilot, przyczyniły się do rewolucji w sposobie, w jaki ludzie postrzegają przyszłość mobilności.

Rzeczywistość może być zupełnie inna. Narodowa Administracja Bezpieczeństwa Ruchu Drogowego (NHTSA) w 2021 r. rozpoczęła śledztwo w sprawie autopilota w samochodach Tesla. Wyniki raportu wyglądają interesująco. To już kolejne problemy, po ostatnich doniesieniach o wadliwych pedałach przyspieszania w modelu Tesla Cybertruck.

[edytuj]

Raport kosmicji Bezpieczeństwa Ruchi Drogowego

NHTSA zbadała wypadki samochodów Tesla, które miały miejsce od stycznia 2018 r. do sierpnia 2023 r. Łącznie odnotowano 956 incydentów, w których śmierć poniosło 29 osób. Sprawę omawia serwis The Verge.

Oprócz tego zarejestrowano 211 wypadków, gdzie samochód uderzył przodem w inny pojazd lub przeszkodę - takie wypadki, często będące najpoważniejszymi, skutkowały śmiercią 14 osób oraz obrażeniami 49. Większość z tych incydentów miała miejsce po zmroku, a oprogramowanie samochodów ignorowało znaki ostrzegawcze, w tym światła, flary, stożki i podświetlane tablice. 

NHTSA przyznaje, że prowadzone przez nią badanie może być niekompletne ze względu na „luki” w danych telemetrycznych. Istnieje możliwość, że liczba wypadków z udziałem autopilota i FSD jest znacznie wyższa, niż wynika to z ustaleń komisji. 

Autopilot Tesli jest wadliwy 

Autorzy raportu wskazują, że autopilot jest wadliwy i „doprowadził do przewidywalnych nadużyć i możliwych do uniknięcia awarii”. Największe zarzuty dotyczą słabego systemu angażowania kierowcy, który koliduje z ograniczonymi możliwościami operacyjnymi funkcji autopilota, powodując krytyczną lukę w bezpieczeństwie. 

W 59 zbadanych przypadkach kierowcy Tesli mieli wystarczająco dużo czasu (powyżej 5 sekund), aby zareagować. Przeglądając dzienniki wypadków i dane dostarczone przez Teslę, NHTSA stwierdziła, że w większości analizowanych wypadków kierowcy nie hamowali i nie skręcali, aby uniknąć zagrożenia. 

W przeciwieństwie do innych systemów, autopilot Tesli zamiast pozwolić kierowcom na skręt, po prostu wyłączał się. NHTSA twierdzi, że „zniechęca to” kierowców do uważnego prowadzenia pojazdu. 

Nazwa autopilot wprowadza w błąd 

Tesla ostrzega swoich klientów, że podczas korzystania z autopilota i systemu FSD (Full Self Driving) muszą zachować ostrożność, co obejmuje trzymanie rąk na kołach i patrzenie na drogę. 

NHTSA twierdzi jednak, że nawet nazwa „autopilot” wprowadza klientów w błąd, sugerując, że kierowcy nie mają kontroli nad pojazdem. Podczas gdy inne firmy stosują tylko określenia „wspomaganie”, produkty Tesli mogą mylnie wabić kierowców i sugerować obecność funkcji, których nie ma w rzeczywistości. 

Prokurator generalny Kalifornii i stanowy Departament Pojazdów Silnikowych prowadzą dochodzenie w sprawie Tesli pod kątem wprowadzającego w błąd marketingu i marki.

źródło: The Verge, Tech Report, foto: Reddit/boddhya

https://www.benchmark.pl/aktualnosci/tesla-cybertruck-sama-sie-psuje-kolpaki.htmlhttps://www.benchmark.pl/aktualnosci/tesla-cybertruck-ma-problem-z-pedalem-gazu.htmlhttps://www.benchmark.pl/aktualnosci/tesla-problemy-kilkudziesieciu-tysiecy-aut.html[edytuj]

2024-04-29T11:44:51Z dg43tfdfdgfd