Em uma rua de Austin, no Texas, um Tesla Model Y circulava usando o sistema Full Self-Driving (FSD), enquanto um ônibus escolar estava parado com luzes vermelhas piscando e placas de pare estendidas, sinal claro de alerta. De repente, um boneco do tamanho de uma criança atravessa a rua. Mas essa cena, longe de ser um acidente, foi parte de um teste do Tesla encenado por grupos ativistas contrários à fabricante: The Dawn Project e Tesla Takedown, que querem expor as falhas da tecnologia semiautônoma da empresa.
No entanto, a situação não é tão simples quanto parece. O FSD, oficialmente chamado de “supervisionado”, exige que o motorista esteja atento o tempo todo, pronto para assumir o controle.
O vídeo gravado pelos ativistas mostra o carro atingindo o boneco, o que em tese reforçaria críticas ao sistema. Mas há controvérsias: em uma situação real, um motorista atento provavelmente teria freado ao ver o ônibus com luzes piscando, interrompendo a ação do FSD.
Ou seja, o teste foca na autonomia do sistema e ignora a exigência de supervisão humana que a própria Tesla destaca. Além disso, os Teslas do projeto Robotaxi em Austin devem usar uma versão mais nova e ainda não lançada do FSD, com promessas de melhorias consideráveis.
Por trás do teste, há uma disputa de narrativas. Os grupos que organizaram a ação são críticos declarados da Tesla e não escondem a intenção de abalar a reputação da empresa.
A iniciativa parece cuidadosamente pensada para gerar impacto, principalmente com a aproximação do lançamento do serviço Robotaxi, planejado por Elon Musk.
Esses ativistas, inclusive, pediram que a Tesla fosse excluída da feira Electrify Expo, chamando a montadora de “máquina de financiamento” para as ambições pessoais de Musk.
Do outro lado, os defensores da Tesla argumentam que o sistema FSD, que se baseia unicamente em câmeras, sem radar ou LiDAR, não é falho por si só, mas depende da responsabilidade do condutor. Segundo eles, o teste exagera ao simular um cenário onde o erro não seria do carro, mas da falta de intervenção humana.
Casos anteriores ajudam a alimentar os dois lados do debate. O FSD já teve falhas graves, como bater em uma árvore no Arizona, receber multas na China e até atropelar uma galinha sem frear.
Por outro lado, também já demonstrou capacidade ao trafegar por estradas de terra na China e desviar de gansos em outros testes.
A NHTSA, órgão de segurança viária dos EUA, está investigando o sistema depois de acidentes em situações de baixa visibilidade, o que levanta dúvidas sobre os limites de uma abordagem baseada apenas em câmeras.
Enquanto isso, concorrentes como o Waymo, que usam sensores LiDAR, têm se mostrado mais eficientes em condições adversas como neblina ou reflexo excessivo.
Com o lançamento dos Robotaxis se aproximando, o teste em Austin parece mais um sinal de alerta no meio de uma tempestade.
Os ativistas querem que o público veja uma tecnologia irresponsável; a Tesla prefere que se entenda que o erro foi de uso, e não do sistema. A verdade, como quase sempre, está entre os dois extremos: o FSD ainda não é o salvador que muitos esperam, mas também está longe de ser um desastre fora de controle.
Veja mais sobre tecnologia.