Autopilot i pełna autonomiczność Tesli powiązane z setkami wypadków i dziesiątkami ofiar śmiertelnych


W marcu 2023 roku uczeń z Karoliny Północnej wysiadał z autobusu szkolnego, kiedy został potrącony przez Teslę Model Y jadącą z „prędkościami autostradowymi”. śledztwa federalnego, które zostało dzisiaj opublikowane. Kierowca Tesli korzystał z autopilota, zaawansowanej funkcji wspomagania kierowcy opracowanej przez producenta samochodów, która według Elona Muska ostatecznie doprowadzi do powstania w pełni autonomicznych samochodów.

Potrącony został 17-letni uczeń przetransportowany helikopterem do szpitala z obrażeniami zagrażającymi życiu. Jednak dochodzenie wykazało po zbadaniu setek podobnych wypadków, że był to wzorzec nieuwagi kierowcy w połączeniu z wadami technologii Tesli, co spowodowało setki obrażeń i dziesiątki zgonów.

Kierowcy korzystający z autopilota lub bardziej zaawansowanego rodzeństwa systemu, Full Self-Driving, „nie byli wystarczająco zaangażowani w zadanie prowadzenia pojazdu”, a technologia Tesli „nie zapewniała odpowiedniego skupienia uwagi kierowcy na zadaniu prowadzenia pojazdu” – podsumowała NHTSA.

Kierowcy korzystający z Autopilota lub bardziej zaawansowanego rodzeństwa systemu, Full Self-Driving, „nie byli wystarczająco zaangażowani w zadanie prowadzenia pojazdu”

W sumie NHTSA zbadała 956 wypadków, które rozpoczęły się w styczniu 2018 r. i trwały do ​​sierpnia 2023 r. W tych wypadkach, w których uczestniczyły inne pojazdy zderzające się z Teslą, zginęło 29 osób. Doszło także do 211 wypadków, w których „przednia płaszczyzna Tesli uderzyła w pojazd lub przeszkodę na swojej drodze”. W tych wypadkach, często najpoważniejszych, zginęło 14 osób, a 49 zostało rannych.

NHTSA została poproszona o wszczęcie dochodzenia po kilku incydentach, w których kierowcy Tesli zderzali się z nieruchomymi pojazdami uprzywilejowanymi zaparkowanymi na poboczu drogi. Większość z tych incydentów miała miejsce po zmroku, a oprogramowanie ignorowało środki kontroli miejsca zdarzenia, w tym światła ostrzegawcze, flary, stożki i podświetlaną tablicę strzałek.

Reklama

W swoim raporcie agencja stwierdziła, że ​​autopilot – a w niektórych przypadkach FSD – nie został zaprojektowany tak, aby utrzymać zaangażowanie kierowcy w zadanie prowadzenia pojazdu. Tesla twierdzi, że ostrzega swoich klientów, że podczas korzystania z autopilota i FSD należy zachować ostrożność, co obejmuje trzymanie rąk na kołach i patrzenie na drogę. NHTSA twierdzi jednak, że w wielu przypadkach kierowcy popadliby w nadmierne samozadowolenie i straciliby koncentrację. A kiedy przyszedł czas na reakcję, często było już za późno.

W 59 wypadkach zbadanych przez NHTSA agencja stwierdziła, że ​​kierowcy Tesli mieli wystarczająco dużo czasu, „pięć lub więcej sekund”, zanim zderzyli się z innym obiektem, aby zareagować. W 19 z tych wypadków zagrożenie było widoczne przez 10 lub więcej sekund przed zderzeniem. Przeglądając dzienniki wypadków i dane dostarczone przez Teslę, NHTSA stwierdziła, że ​​w większości analizowanych wypadków kierowcy nie hamowali ani nie skręcali, aby uniknąć zagrożenia.

„W przypadku wszystkich wersji sprzętu Tesli i okoliczności awarii wykryto awarie, w których kierowca nie podjął żadnej akcji lub podjął ją późno” – podała NHTSA.

NHTSA porównała także funkcje automatyzacji poziomu 2 (L2) Tesli z produktami dostępnymi w pojazdach innych firm. W przeciwieństwie do innych systemów, autopilot zamiast pozwolić kierowcom na dostosowanie układu kierowniczego, wyłączał się. NHTSA twierdzi, że „zniechęca to” kierowców do dalszego angażowania się w obowiązki związane z prowadzeniem pojazdu.

„W przypadku wszystkich wersji sprzętu Tesli i wszystkich okoliczności awarii wykryto awarie, w których kierowca nie podjął żadnej akcji lub podjął ją późno”.

Porównanie wyborów projektowych Tesli z wyborami konkurentów L2 wykazało, że Tesla jest odbiegającym od branży podejściem do technologii L2 ze względu na niedopasowanie słabego systemu angażowania kierowcy do liberalnych możliwości operacyjnych autopilota.

NHTSA stwierdziła, że ​​nawet nazwa marki „Autopilot” wprowadza w błąd, sugerując, że kierowcy nie mają kontroli. Podczas gdy inne firmy stosują jakąś wersję słów „wspomaganie”, „wyczucie” lub „zespół”, produkty Tesli wabią kierowców, aby myśleli, że są w stanie więcej niż w rzeczywistości. Prokurator generalny Kalifornii i stanowy Departament Pojazdów Silnikowych prowadzą dochodzenie w sprawie Tesli pod kątem wprowadzającego w błąd marketingu i marki.

NHTSA przyznaje, że prowadzone przez nią badanie może być niekompletne ze względu na „luki” w danych telemetrycznych Tesli. Może to oznaczać, że liczba wypadków z udziałem autopilota i FSD jest o wiele większa, niż udało się ustalić NHTSA.

NHTSA stwierdziła, że ​​nawet nazwa marki „Autopilot” wprowadza w błąd

Tesla wydała dobrowolne wycofanie pod koniec ubiegłego roku w odpowiedzi na dochodzenie wypuszczając bezprzewodową aktualizację oprogramowania, aby dodać więcej ostrzeżeń do Autopilota. NHTSA stwierdziła dzisiaj, że tak wszczęcie nowego śledztwa do wycofania po tym, jak wielu ekspertów ds. bezpieczeństwa stwierdziło, że aktualizacja jest taka niewystarczające i nadal dopuszczane do nadużyć.

Odkrycia przeczą twierdzeniom Muska, że ​​Tesla to firma zajmująca się sztuczną inteligencją, która jest o krok od wypuszczenia w pełni autonomicznego pojazdu do użytku osobistego. Firma planuje zaprezentuje robotaxi jeszcze w tym roku to ma zapoczątkować nową erę dla Tesli. Podczas rozmowy telefonicznej dotyczącej wyników pierwszego kwartału w tym tygodniuMusk podwoił pogląd, że jego pojazdy są bezpieczniejsze niż samochody kierowane przez ludzi.

„Jeśli dysponuje się statystycznie istotną ilością danych, które w skali makro wykazują niezbicie, że samochód autonomiczny ma, powiedzmy, wskaźnik wypadków o połowę niższy niż samochód kierowany przez człowieka, myślę, że trudno to zignorować” – powiedział Musk. „Ponieważ w tym momencie zatrzymanie autonomii oznacza zabijanie ludzi”.



Source link

Advertisment

Więcej

Advertisment

Podobne

Advertisment

Najnowsze

Według doniesień Apple opracowuje niestandardowe procesory do centrów danych z naciskiem na wnioskowanie AI

Według doniesień Apple pracuje nad stworzeniem własnych chipów zaprojektowanych specjalnie dla swoich centrów danych. Wiadomość ta pochodzi z niedawnego raportu „Wall Street...

Rzuć krytyczne spojrzenie na narzędzie sprawdzające IR35 HMRC

Dziękuję, że dołączyłeś! Uzyskaj dostęp do swojego Profesjonalny+ Treść poniżej. 7 maja 2024 r Rzuć krytyczne spojrzenie na narzędzie sprawdzające IR35 HMRC Udostępnij ten przedmiot w swojej...

Microsoft przygotowuje wewnętrzny model AI MAI-1 z parametrami 500B

Jak podaje The Information, Microsoft opracowuje nowy model sztucznej inteligencji, nazwany wewnętrznie MAI-1, mający konkurować z wiodącymi modelami firm Google, Anthropic i OpenAI....
Advertisment