Eșecul Tesla Robotaxi, în cifre exacte. Cât de periculoase sunt mașinile autonome ale lui Elon Musk, cu tot cu șoferi de siguranță la volan
De câte ori auzi discursul oficial al Tesla despre viitorul condusului autonom, pare că ești la un pas de o lume în care accidentele sunt excepții și traficul devine aproape perfect. Realitatea din teren arată însă altfel, mai ales când intri în detalii despre serviciul Tesla Robotaxi testat în Austin, Texas. Acolo, compania a mutat supraveghetorul uman din spatele volanului pe scaunul din dreapta și, din acel moment, a fost obligată să raporteze fiecare incident către NHTSA, autoritatea americană responsabilă de siguranța rutieră. Din datele publice reiese un tablou care contrazice complet narațiunea despre „siguranța superioară” a software-ului Tesla.
În doar câteva luni de la lansare, flota de Robotaxi din Austin a fost implicată în șapte incidente, în condițiile în care a parcurs aproximativ 250.000–300.000 de kilometri echivalenți. Oficial, nu vorbim de accidente grave, cu victime, dar simplul raport dintre numărul de coliziuni și distanța parcursă ridică un steag roșu serios pentru un serviciu care ar trebui să demonstreze că este mai bun decât șoferul uman. Mai deranjant decât cifrele brute este însă faptul că Tesla profită la maximum de dreptul de a cenzura detaliile tehnice trimise către autorități, astfel că publicul nu are acces la narațiunea exactă a fiecărui accident: nu știi în ce condiții s-au produs, cine a greșit, ce a văzut sau nu a văzut sistemul.
Ce spun cifrele despre Tesla Robotaxi și de ce sunt problematice
Dacă reduci totul la matematică simplă, cele șapte incidente raportate pentru Tesla Robotaxi în Austin, la numai câteva sute de mii de mile parcurse, înseamnă o rată a evenimentelor de aproximativ două ori mai mare decât cea a serviciului concurent Waymo, care are deja sute de milioane de kilometri de operare fără șofer. Diferența devine și mai greu de ignorat când îți amintești că, în toate mașinile Tesla Robotaxi, există în continuare un supraveghetor uman cu acces instant la un buton de oprire a sistemului, gata să intervină înainte ca un incident minor să se transforme într-o coliziune reală.
Dacă acești șoferi de siguranță nu ar fi fost acolo, este imposibil de spus câte alte accidente s-ar fi adăugat la listă. Autorul analizei de la Electrek punctează foarte clar un reper important: în trafic real, un șofer uman are, în medie, un accident la aproximativ 700.000 de mile. Tesla a acumulat șapte incidente în jurul pragului de 300.000 de mile cu Robotaxi, chiar și cu supraveghere umană constantă. Chiar dacă nu toate aceste accidente au fost provocate de sistemul autonom, simplul raport între numărul de kilometri și frecvența incidentelor ar trebui să îți dea serios de gândit când auzi din nou promisiuni despre „cel mai sigur mod de a te deplasa”.
De ce modul în care Tesla gestionează transparența amplifică neîncrederea
Un alt detaliu critic nu ține doar de cifre, ci de modul în care Tesla comunică aceste incidente. Spre deosebire de Waymo, care publică narațiuni clare pentru fiecare accident raportat către NHTSA, Tesla preferă să cenzureze aproape complet această secțiune. Practic, nu poți vedea exact ce s-a întâmplat înainte de impact, cum se mișcau ceilalți participanți la trafic sau dacă sistemul a reacționat greșit, prea lent sau, pur și simplu, nu a înțeles contextul. Din fragmentele disponibile, se poate deduce doar că au existat coliziuni cu un automobil în marșarier, un biciclist, un animal și diverse obiecte fixe.
Această lipsă de transparență accentuează sentimentul că Tesla încearcă să-și protejeze imaginea de pionier al condusului autonom, chiar și cu prețul unei relații tensionate cu autoritățile și cu publicul. Când o companie pretinde că tehnologia ei este „cu mult peste oameni” la capitolul siguranță, dar refuză să explice în detaliu fiecare incident, mesajul pe care îl transmite indirect este exact opusul: că nu vrea ca lumea să vadă imperfecțiunile reale ale sistemului. În plus, faptul că Robotaxi operează momentan doar cu supraveghetori în mașină ar trebui să fie un semnal clar că sistemul este încă în fază experimentale, departe de viziunea complet autonomă promisă de ani de zile.
Limitele tehnologiei autonome și riscul unei promisiuni vândute prea devreme
Poate cel mai important lucru pe care îl arată aceste incidente nu este că inteligența artificială la volan ar fi, în sine, un eșec, ci că implementarea ei în stil „move fast and break things” este profund nepotrivită când vorbim de siguranță rutieră. Când lansezi un serviciu de Robotaxi într-un oraș mare, chiar și cu supraveghetori la bord, îți asumi că tehnologia ta este suficient de matură ca să facă față la milioane de micro-situații din trafic. Realitatea, sub forma celor șapte accidente, sugerează mai degrabă că sistemul este într-o etapă în care ar fi trebuit să rămână în teste controlate, nu în serviciu comercial.
În loc să fie „dovada” că mașinile autonome sunt mai sigure decât oamenii, cifrele Tesla Robotaxi arată că eşti încă într-o zonă în care un șofer uman bine antrenat rămâne mai constant în reacții. Aici intră în joc și problema responsabilității: dacă nu știi exact cum s-a petrecut un accident, cine e de vină, ce a văzut sistemul autonom și ce decizie a luat, devine foarte complicat să stabilești clar cine răspunde – Tesla, operatorul serviciului sau supraveghetorul din mașină.
Cât de periculoase sunt, de fapt, mașinile autonome ale Tesla în acest moment
Dacă privești strict prin prisma cifrelor, nu poți spune că Tesla Robotaxi este „extrem de periculos” în sensul tradițional – nu au existat decese sau răniți grav în aceste șapte incidente raportate. Problema este alta: pentru un serviciu care ar trebui să demonstreze un salt clar față de condusul uman, rezultatele sunt cel puțin dezamăgitoare, mai ales când le compari cu Waymo, care are un volum de trafic autonom incomparabil mai mare și o rată de accidente mai mică. Faptul că Tesla are deja de două ori mai multe incidente raportate per milă decât un concurent matur și, în plus, păstrează acești supraveghetori la bord, sugerează că sistemul „nu este încă acolo”.
În practică, dacă te-ai urca astăzi într-un Robotaxi Tesla, te-ai baza simultan pe două sisteme: un software care nu a demonstrat încă o superioritate clară față de șoferul uman și un supraveghetor care trebuie să fie permanent vigilent pentru a corecta eventualele erori. Asta contrazice, de fapt, promisiunea inițială a condusului autonom: că te poți relaxa și lăsa mașina „să facă treaba” în locul tău. Până când Tesla nu va fi dispusă să deschidă complet datele și să arate exact contextul fiecărui incident, orice discurs despre siguranță superioară rămâne mai degrabă marketing decât realitate demonstrabilă.