The Dawn Project rozpętał w USA prawdziwą aferę. Jej bohaterką jest Tesla [MOTO 2030]

Łukasz Kifer
Dan O'Dowd napisał: "Gdyby autopilot Tesli był w każdym samochodzie, codziennie na drogach ginęłyby miliony osób". Twierdzi, że układ Tesli popełnia krytyczny błąd co osiem minut. A jak często myli się człowiek?

MOTO 2030 to piątkowy cykl Gazeta.pl, w którym poruszamy najważniejsze tematy dotyczące przyszłości motoryzacji, transportu i technologii. Nie zabraknie tu także ciekawych historii konstruktorów oraz opisu dziejów firm, których przeszłość ma wpływ na to, jak będzie wyglądała motoryzacja przyszłości. Samochody, drogi i miasta na naszych oczach bardzo dynamicznie się zmieniają. Co piątek dziennikarze Moto.pl będą o tych zmianach pisać. Tutaj znajdują się wszystkie artykuły z cyklu MOTO 2030.

Powiedzieć, że Tesla Autopilot nie ma ostatnio dobrej passy, to nic nie powiedzieć. Jeśli wydarzy się wypadek z udziałem auta innej marki, opinia publiczna przechodzi nad nim do porządku dziennego. Na drogach całego świata ginie co roku od 1,35 do 1,5 miliona osób. We wszystkich wypadkach Tesli w historii poniosły śmierć 234 osoby.

The Dawn Project to organizacja dbająca o podwyższenie poziomu bezpieczeństwa komercyjnego oprogramowania. Tak się składa, że jej lider Dan O'Dowd jest też prezesem firmy Green Hills Software, która pracuje nad oprogramowaniem do autonomicznej jazdy używanym przez dostawców konkurencji Tesli, m.in. BMW.

Opinia O'Dowda została opublikowana w całostronicowej reklamie The Dawn Project, którą sam kupił w dzienniku "The New York Times" za co najmniej 150 tys. dolarów. Zdania, które można tam przeczytać, wskazują, że szef firmy Green Hill Software i lider grupy The Dawn Project jest bardzo pewny siebie.

Oferuje 10 tys. dolarów osobie, która wskaże firmę z listy Fortune 500 sprzedającą oprogramowanie mylące się częściej niż Autopilot. Można tę deklarację potraktować jak agresywną formę marketingu albo przyczynek do dalszej dyskusji.

The Dawn Project:  Obejrzeliśmy 21 filmów na YouTubie

Analiza przeprowadzona przez The Dawn Project na podstawie filmów z portalu YouTube wykazała, że Autopilot w najbardziej zaawansowanej wersji FSD (Full Self-Driving) popełnia tzw. krytyczny błąd (jego definicję opracował kalifornijski departament transportu DMV) co osiem minut. Podobno gdyby nie czuwał nad nim kierowca, Autopilot miałby wypadek co 36 minut.

The Dawn Project podaje więcej statystyk. Zdaniem organizacji Tesla z autopilotem Full Self-Driving nie byłaby w stanie jeździć samodzielnie bez kolizji nawet przez jeden dzień, a ludzie kierują samochodami tysiące razy lepiej.

Tyle Dan O'Dowd. Reklama w "New York Times" wzbudziła w USA ogromne emocje. Nazwa Tesla działa na wiele osób jak płachta na byka, dlatego przeciwnicy Elona Muska natychmiast przyklasnęli treściom z ogłoszenia. Za to zwolennicy, fani i wyznawcy (wybierzcie określenie, które wam najbardziej pasuje) filozofii miliardera z RPA rzucili się na O'Dowda i rozszarpali go w internecie.

Zarzucono mu naginanie faktów, infantylną analizę, tendencyjność, ukrywanie faktycznych intencji, nieetyczną reklamę, zniesławienie i wierutne kłamstwa. Zdaniem najbardziej ostrych krytyków autor ogłoszenia może "celowo opóźniać postęp w dziedzinie jazdy autonomicznej" i mieć "krew na rękach".

Rzeczywiście można mieć zastrzeżenia do metodologii badania, którego wyniki są podstawą opublikowanego ogłoszenia. Polegało na oglądaniu YouTube'a "dłużej niż siedem godzin", ale każdy po lekturze dostępnych filmów z wnętrza Tesli przyzna, że coś jest na rzeczy.

Autopilot pod względem prawnym nie różni się niczym od tempomatu

Możliwości autopilota Tesli imponują, ale raz na jakiś czas oprogramowanie z rozszerzeniem FSD, szczególnie w wersji próbnej, popełnia głupi błąd. Jeśli czuwa nad nim odpowiedzialny tester, sytuacja kończy się dobrze. Jeżeli kierowca przesiada się podczas jazdy na tylną kanapę, efektem może być tragiczny wypadek.

A co sama Tesla pisze o swoim autopilocie FSD? Na stronie handlowej służącej do zamawiania samochodów można przeczytać, że jest w stanie samodzielnie utrzymywać i zmieniać pasy ruchu, przyspieszać i hamować włącznie z całkowitym zatrzymaniem się i wyprzedzaniem innych aut. Krótko mówiąc, samochód ma zdolność samodzielnej jazdy autostradą. Do tego trzeba dodać automatyczne parkowanie i przywołanie samochodu z parkingu.

Formalnie Tesla wciąż jest samochodem o autonomii drugiego poziomu, czyli wymagającym ciągłego nadzoru człowieka, tak samo jak niemal wszystkie auta innych marek. Pierwszymi wyjątkami od tej reguły stały się dwa Mercedesy: klasy S (W223) oraz elektryczny EQS. Oba otrzymały certyfikaty pojazdów autonomicznego trzeciego poziomu, czyli zdolnych do warunkowej samodzielnej jazdy. Ten warunek to zazwyczaj wyznaczone i przystosowane do niej fragmenty dróg.

Natomiast Tesla informuje na swojej stronie: "Włączone funkcje wymagają aktywnego nadzoru kierowcy i nie zapewniają autonomicznego kierowania pojazdem. Część funkcji wymaga włączenia kierunkowskazu, a zakres ich działania jest ograniczony."

Mercedes EQS 580 4MATIC
Mercedes EQS 580 4MATIC fot. Mercedes-Benz AG

Dalej możemy przeczytać: "Możliwość aktywacji i korzystania z tych funkcji zależy od osiągnięcia niezawodności znacznie przewyższającej kierowanie przez człowieka, czego dowodem są miliardy mil doświadczenia, a także zatwierdzenie przez organy regulacyjne, które może potrwać dłużej w niektórych krajach".

To znaczy, że Tesla chwali się stopniem zaawansowania swojego autopilota, ale z drugiej strony podkreśla, że firma przez cały czas zbiera dane, które pozwalają udoskonalić ten układ. Z trzeciej strony informuje, że odpowiedzialność za efekty jazdy spoczywa na kierowcy, a prawo w żadnym kraju nie pozwala na autonomiczną jazdę.

Dlatego niezależnie od tego, jak sprawnie porusza się Tesla samodzielnie, trzeba ją traktować jak adaptacyjne tempomaty konkurencji o nieco większych możliwościach: narzędzie ułatwiające jazdę i potencjalnie zwiększające bezpieczeństwo, a nie zastępujące kierowcę. W przeciwieństwie do aut większości marek Tesla z autopilotem FSD powinna się na przykład zatrzymać na czerwonym świetle, ale to kierowca jest odpowiedzialny za efekty i musi pozostać czujny.

Przekonał się o tym Kevin George Aziz Riad w Los Angeles. W 2019 r. prowadzony przez niego Model S nie zahamował automatycznie na skrzyżowaniu i wjechał na nie na czerwonym świetle. W wypadku zginęły dwie osoby. Proces trwa, a oskarżony nie przyznaje się do winy. Twierdzi, że "prowadził" Autopilot.

Autopilot Tesli jest dobry i to jego problem, ale niejedyny

Elon Musk stworzył produkt, który jest paradoksem. Autopilot budzi kontrowersje, ponieważ jest tak dobry, że ludzie uwierzyli, iż potrafi ich zastąpić. Gdyby działał jak tempomaty większości rywali, nie dałoby się mu zaufać. Dlatego trzeba ciągle przypominać i podkreślać, że samodzielna jazda jakiegokolwiek auta ciągle jest niedozwolona. Na razie to eksperymentalna funkcja.

Niektórzy kierowcy i większość dziennikarzy w przypadku Tesli o tym zapominają. Pierwsi ucinają sobie drzemkę za kierownicą, a drudzy piszą, że "Tesla znowu spowodowała wypadek". Tesla, a nie kierowca, jak w przypadku innych marek.

Autopilot ma poważny problem, ale zupełnie inny. Układ nie sprawdza, czy kierowca stale czuwa nad bezpieczeństwem jazdy. Większość nowoczesnych samochodów jest wyposażona w kamery oraz czujniki, które monitorują poziom uwagi kierowcy i natychmiast reagują, gdy niebezpiecznie spada.

Nie wiadomo, czy to zamierzone działanie, czy niedopatrzenie inżynierów, ale samochody Tesli kontynuują jazdę mimo braku reakcji kierowcy nawet przez dłuższy czas. To usypia ich czujność i potęguje zaufanie do maszyny, które ma kruche podstawy.

Niektórzy właściciele Tesli obserwują działania Autopilota z takiej perspektywy
Niektórzy właściciele Tesli obserwują działania Autopilota z takiej perspektywy fot. Tesla

Stąd się biorą niektóre wypadki z udziałem samochodów marki Elona Muska i dlatego autopilot FSD spada w amerykańskich rankingach układów autonomicznej jazdy. Jego ocenę obniżyły amerykańskie IIHS (Insurance Institute for Highway Safety) i organizacja Consumer Reports. Obie ostatnio zaczęły odejmować punkty za niedostateczny monitoring kierowcy.

Badanie przeprowadzone nie tak dawno przez naukowców prestiżowej uczelni MIT wykazało to, o czym wszyscy wiemy. Że kierowcy Tesli po włączeniu autopilota zwracają zacznie mniejszą uwagą na sytuację na drodze i zajmują się innymi rzeczami. Co więcej, im dłużej trwa automatyczna jazda, tym mniej są zainteresowani nią ludzie.

Dodatkowo amerykański urząd ds. bezpieczeństwa ruchu drogowego (NHTSA) niedawno nakazał Tesli wyłączenie w wersji beta autopilota FSD automatycznej procedury "rolling stop". To funkcja, która powalała pokonywać równorzędne skrzyżowania ze znakami stop bez całkowitego zatrzymania się, jeśli tylko były puste. NHTSA sądzi, że zwiększa ryzyko kolizji, a poza tym takie przetaczanie się to szara strefa" przepisów ruchu drogowego w USA. Wszyscy tak robią, chociaż formalnie jest zabronione.

Statystycznie Tesle są jednymi z najbezpieczniejszych samochodów

Mimo powyższych zastrzeżeń ogłoszenie The Dawn Project, za którym ukryło się Green Hills Software, trzeba nazwać demagogią. Nie wypada pisać o wypadkach i kolizjach, które teoretycznie może spowodować Tesla w trybie autonomicznym, bo to opinia. Trzeba porównywać fakty.

Z danych wynika, że w wypadkach z udziałem samochodów tej marki z udziałem Autopilota zginęło do tej pory najwyżej 12 osób. To wielokrotnie mniej niż w katastrofach lotniczych spowodowanych błędami oprogramowania albo czujników. W takim razie już znaleźliśmy gorszy software. Tak się składa, że Dan O'Dowd dostarczał oprogramowanie m.in. do Boeinga 787 oraz samolotów bojowych.

Liczba Tesli jeżdżących po drogach zbliża się do dwóch milionów i szybko rośnie. Tylko w Stanach Zjednoczonych co najmniej 765 tys. aut tej marki jest wyposażona w Autopilota. Do tej pory w wypadkach Tesli śmierć poniosły 234 osoby, niezależnie od przyczyn. Gdyby porównać te dane z liczbą ofiarami aut innych firm, mogłoby się okazać, że bilans wypada dla firmy Elona Muska całkiem korzystnie. Tyle że w przypadku konkurencji media nie interesują się, czy był włączony tempomat.

Musk długo milczał na temat afery wywołanej przez The Dawn Project, ale w końcu pociągnięty na Twitterze za język przez inwestora, skomentował to lakonicznie i w swoim stylu: "Oprogramowanie Green Hills Software to śmietnik. Niech żyje Linuks".

Największą przeszkodą na drodze całkowitej autonomii pozostanie człowiek

Jakie uniwersalne wnioski można wyciągnąć z awantury Autopilot vs. The Dawn Project rozpętanej przez przedziwne ogłoszenie w "The New York Times"? Technologie służące do autonomicznej jazdy, a przede wszystkim sztuczna inteligencja w służbie motoryzacji, robią olbrzymie postępy, ale wciąż im daleko do doskonałości.

Jest kilka powodów. Po pierwsze takie urządzenia są stosowane na szeroką skalę dopiero od kilku lat. Wcześniej nie pozwalała na to moc obliczeniowa procesorów. Ludzkość dopiero raczkuje w dziedzinie motoryzacyjnej robotyki. Po drugie tak zwane samochody autonomiczne działają w bardzo skomplikowanym środowisku.

Już teraz widać, że w wielu sytuacjach podejmują lepsze i szybsze decyzje niż ludzie, ale w innych na razie kompletnie sobie nie radzą. Najtrudniej im jest odnaleźć się w nieprzewidywalnych warunkach, jakie stwarza na ulicach gatunek, który je stworzył. Ludzie jeżdżą bardzo chaotycznie.

Jeszcze długo, a być może zawsze, tak będzie. Niektórzy naukowcy twierdzą, że statystycznie najbezpieczniejszym rozwiązaniem byłoby już wkrótce zabronić nam prowadzić samochody. Maszyny poradziłyby sobie lepiej niż teraz w całkowicie zautomatyzowanym ekosystemie.

Tylko że taka zmiana jest niewykonalna technicznie, a przede wszystkim niemożliwa ze względów etycznych. Powód jest prosty: nieprędko zgodzimy się na przejęcie odpowiedzialności za nasze życia przez roboty. Autonomiczna jazda dopiero raczkuje, a już budzi ogromne kontrowersje. Większość jest natury filozoficznej. To będzie największa bariera do pokonania w przyszłości.

Tesla Model S
Tesla Model S fot. Tesla
Więcej o: