Śmiertelny wypadek podczas jazdy na Autopilocie Tesli
Zawiódł system autonomicznej jazdy w samochodzie Tesla Model S. Ale czy jest to wyłącznie wina producenta?
Tesla Motors doprowadziła do swego rodzaju motoryzacyjnej rewolucji za sprawą swoich samochodów elektrycznych. Od kilku lat pracuje też nad tym, by spopularyzować jazdę autonomiczną – stąd rozwijany od lat Autopilot, system, który na szerokich, prostych i często uczęszczanych drogach może zastąpić człowieka za kierownicą. Pytanie tylko, czy z powodzeniem.
Pierwsza ofiara jazdy autonomicznej
Do tej pory, system często zawodził, ale nie miało to tragicznych skutków. Aż do niedawna – amerykańska NHTSA poinformowała o pierwszym śmiertelnym wypadku, w którym przynajmniej część wini najpewniej ponosi system Tesli.
Do wypadku doszło na autostradzie w centrum Florydy – Tesla Model S należąca do Joshuy Browna wjechała w naczepę ciągnika. Samochód był prowadzony przez Autopilota, którego komponenty nie dostrzegły białej naczepy na tle bardzo jasnego nieba. Równocześnie naczepa ta była umiejscowiona tak wysoko, że przebiła się przez przednią szybę auta, co doprowadziło do śmierci 40-letniego Amerykanina.
Kto jest winny?
NHTSA wszczęła dochodzenie, w którym będzie próbowała udowodnić winę (lub niewinność) firmy Tesla Motors i jej systemu Autopilot. Wdrożenie takiego systemu, zdaniem oskarżycieli, powinno być dopuszczone wyłącznie wtedy, gdy producent jest pewny jego niezawodności.
Elon Musk, szef Tesli, twierdzi jednak, że choć faktycznie to Autopilot popełnił błąd, to nie można zrzucać winy na wadliwy system. Producent twierdzi (co jest zresztą zgodne z prawdą), że wielokrotnie informował o tym, że Autopilot znajduje się obecnie w fazie beta i kierowca jest zobowiązany do „zachowania kontroli i odpowiedzialności za swój pojazd”. Musk dodaje: „Autopilot staje się coraz lepszy, ale wciąż nie jest idealny i wymaga tego, by kierowca czuwał”.
Autopilot – co dalej?
Elon Musk opublikował post na blogu, w którym przekazuje kondolencje i wyrazy współczucia dla rodziny i przyjaciół pana Browna. Nic nie wskazuje jednak na to, by ten incydent miał spowolnić rozwój systemu Autopilot, choć na to spory wpływ będzie miał pewnie wynik dochodzenia.
Warto jednak w tym miejscu przypomnieć, że decyzja firmy Tesla Motors o tak wczesnym rozpoczęciu „publicznych beta testów” Autopilota wielokrotnie spotkała się z ostrą krytyką. W jednym z komunikatów Volvo mogliśmy przeczytać: „[Autopilot] robi wrażenie, że może więcej niż jest w stanie zrobić”. Szwedzko-chiński producent zapewniał też, że gdy wprowadzi do sprzedaży samochód autonomiczny, weźmie pełną odpowiedzialność prawną za wszystkie wynikłe incydenty.
Źródło: The Verge
Komentarze
29Mały off-top: Najdziwniejszymi historiami były zawsze dla mnie wypadki związane z nawigacją GPS, która potrafiła kierowcę wprowadzić do rzeki, jeziora, czyjegoś ogródka, czy doprowadzić do uderzenia w dom. Rozumiem, że nawigacji zdarzy się przykładowo pokazać most gdzie go nie ma, lub nie pokazać budynku, który jest, ale bez przesady... Kierowca chyba widzi co ma przed sobą.
Autopilot w aucie to extremalnie trudna sprawa do zrobienia.
Kamera. Radar był wyłączony.
Pytam, gdyż z tekstu to nie wynika, a w komentarzach ktoś napisał, że został wyłączony.
Poleganie na samej kamerze, czy nawet kilku nie jest dobrym rozwiązaniem, gdyż w momencie zabrudzenia obiektywu (nie tylko ptasimi eksrementami) system nie będzie miał możliwości kontrolowania sytuacji w około pojazdu. Przecież nawet ludziom z "komputerem wizualnym" rozwijanym miliony lat, często zlewają się różne obietky z tłem i przez to popełniają błędy na drodzę. Tutaj musi być redundancja i zróżnicowanie systemów detekcji przeszkód.
Poza tym zgadzam się ze stwierdzeniem, że oprócz radaru i kamery powinny być również dalmierze laserowe, ale tutaj mógłby być problem oślepiania innych kierowców i to permanentnie.
Otóż panie redaktorze, w państwach prawa nie udowadnia się niewinności bo jest ona domniemana! Udowadnia się tylko winę!