Nie mam zamiaru nabijać się z Elona Muska jest innowatorem w dziedzinie sztucznej inteligencji, a jego firma Tesla motorem postępu samochodów autonomicznych. Ale mógłby ponownie zatrudnić kogoś od działań PR, bo trudno nadążyć za ciągiem jego myśli.
Jeśli wierzyć tweetom, Autopilot FSD (Full Self-Driving) v9.2 był przełomowy, potem okazał się jednak nie za dobry. Miał zostać poprawiony w wersji 9.3. I został, ale chyba nie dostatecznie, bo Elon Musk zdecydował, że dopiero dziesiąta odmiana bety Autopilota zostania udostępniona szerszej rzeszy kierowców.
Najpierw trzeba kompletnie przeprogramować sieć neuronową, która nim zarządza. Musk chce, aby ten sam stos zajmował się analizą zarówno w warunkach autostradowych, jak i miejskich. Według oceny szefa Tesli zajmie to około czterech tygodni.
System Autopilot w ostatnich miesiącach wykonał dwa milowe kroki. Po pierwsze przestał korzystać z radarów i swoje działanie opiera głównie na obrazie z samochodowych kamer analizowanych przez oprogramowanie Tesli. Dodatkowe informacje dostarczają mu tylko czujniki ultradźwiękowe działające na krótki dystans.
Po drugie od wersji 9.2 ma sobie znacznie lepiej radzić poza autostradami: w miastach i na węższych drogach. I chyba tak jest, ale Elon Musk za bardzo rozbudził oczekiwania. Tak samo jak wcześniej gdy Tesla próbowała reklamować swoje samochody jako gotowe do autonomicznej jazdy. Kierowcy za bardzo w to uwierzyli i zapomnieli, że zgodnie z prawem mają przez cały czas czuwać nad działaniami aut, bo to oni są odpowiedzialni za ich efekty.
Od dłuższego czasu przypomina o tym również producent elektrycznych samochodów z Palo Alto. Ale myląca nazwa Autopilot (ciągle trzeba przypominać, że nie jest tym, co sugeruje) i reputacja robią swoje. Kierowcy wierzą, że Tesle pojadą samodzielnie i rozbijają swoje auta.
Ostatnio wypadków jest tak dużo, że amerykańska agencja NHTSA (National Highway Traffic Safety Administration) dbająca o bezpieczeństwo w ruch drogowym, rozpoczęła śledztwo. Bada okoliczności 11 zdarzeń drogowych, które miały miejsce w dziewięciu różnych stanach.
Jeden z nich miał śmiertelny skutek. NHTSA chce zbadać, kto ponosi za to winę. Jeśli okaże się, że wadliwe działanie systemu Autopilot, być może zabroni jego używania i firma będzie zmuszona przeprowadzić wielką akcję serwisową. Jeżeli wada kryje się w oprogramowaniu, będzie można ją wyeliminować stosunkowo łatwo, bo system operacyjny Tesli da się aktualizować przez internet bez żadnego udziału kierowcy.
Może też okazać się, że zarzuty są niesłuszne. Jedenaście wypadków, które wydarzyły się od 2018 roku na ponad 765 tys. jeżdżących aut tej marki, to nie tak dużo. Elon Musk twierdzi, że Autopilot i tak jest o wiele bezpieczniejszy od ludzkiego kierowcy. Z udostępnieniem chętnym właścicielom wersji testowej Beta wstrzymuje się do 10 edycji Autopilota FSD, bo chce, żeby program był bezpieczniejszy od statystycznego człowieka o tysiąc procent, czyli dziesięciokrotnie.
Tyle Elon Musk. Zobaczymy, co odpowie na to oficjalnie agencja rządowa NHTSA. Z filmów publikowanych przez testerów Autopilota FSD w wersji 9.2 wynika, że w pewnych warunkach układ radzi sobie znakomicie. Na Twitterze można obejrzeć, jak samochód marki Tesla prowadzi samodzielnie przez kilkadziesiąt minut bez żadnej interwencji kierowcy. Kilka z zamieszczonych filmów zostało nakręconych na terenie aglomeracji San Francisco.
Sam Elon Musk skomentował tę lokalizację, twierdząc, że system został aż za dobrze dopasowany do warunków panujących w tym amerykańskim mieście. Wygląda na to, że nie wszędzie radzi sobie równie sprawnie. Tesla już dysponuje sztuczną inteligencją w postaci Autopilota FSD. Do kompletu brakuje jej tylko żelaznej konsekwencji.