Mundo Geek Tecnologia

Teste do Tesla em modo autônomo em zona escolar falha

Em uma rua de Austin, no Texas, um Tesla Model Y circulava usando o sistema Full Self-Driving (FSD), enquanto um ônibus escolar estava parado com luzes vermelhas piscando e placas de pare estendidas, sinal claro de alerta. De repente, um boneco do tamanho de uma criança atravessa a rua. Mas essa cena, longe de ser um acidente, foi parte de um teste do Tesla encenado por grupos ativistas contrários à fabricante: The Dawn Project e Tesla Takedown, que querem expor as falhas da tecnologia semiautônoma da empresa.

No entanto, a situação não é tão simples quanto parece. O FSD, oficialmente chamado de “supervisionado”, exige que o motorista esteja atento o tempo todo, pronto para assumir o controle.

O vídeo gravado pelos ativistas mostra o carro atingindo o boneco, o que em tese reforçaria críticas ao sistema. Mas há controvérsias: em uma situação real, um motorista atento provavelmente teria freado ao ver o ônibus com luzes piscando, interrompendo a ação do FSD.

Ou seja, o teste foca na autonomia do sistema e ignora a exigência de supervisão humana que a própria Tesla destaca. Além disso, os Teslas do projeto Robotaxi em Austin devem usar uma versão mais nova e ainda não lançada do FSD, com promessas de melhorias consideráveis.

Por trás do teste, há uma disputa de narrativas. Os grupos que organizaram a ação são críticos declarados da Tesla e não escondem a intenção de abalar a reputação da empresa.

A iniciativa parece cuidadosamente pensada para gerar impacto, principalmente com a aproximação do lançamento do serviço Robotaxi, planejado por Elon Musk.

Esses ativistas, inclusive, pediram que a Tesla fosse excluída da feira Electrify Expo, chamando a montadora de “máquina de financiamento” para as ambições pessoais de Musk.

Do outro lado, os defensores da Tesla argumentam que o sistema FSD, que se baseia unicamente em câmeras, sem radar ou LiDAR, não é falho por si só, mas depende da responsabilidade do condutor. Segundo eles, o teste exagera ao simular um cenário onde o erro não seria do carro, mas da falta de intervenção humana.

Casos anteriores ajudam a alimentar os dois lados do debate. O FSD já teve falhas graves, como bater em uma árvore no Arizona, receber multas na China e até atropelar uma galinha sem frear.

Por outro lado, também já demonstrou capacidade ao trafegar por estradas de terra na China e desviar de gansos em outros testes.

A NHTSA, órgão de segurança viária dos EUA, está investigando o sistema depois de acidentes em situações de baixa visibilidade, o que levanta dúvidas sobre os limites de uma abordagem baseada apenas em câmeras.

Enquanto isso, concorrentes como o Waymo, que usam sensores LiDAR, têm se mostrado mais eficientes em condições adversas como neblina ou reflexo excessivo.

Com o lançamento dos Robotaxis se aproximando, o teste em Austin parece mais um sinal de alerta no meio de uma tempestade.

Os ativistas querem que o público veja uma tecnologia irresponsável; a Tesla prefere que se entenda que o erro foi de uso, e não do sistema. A verdade, como quase sempre, está entre os dois extremos: o FSD ainda não é o salvador que muitos esperam, mas também está longe de ser um desastre fora de controle.

Veja mais sobre tecnologia.

Jornalista há mais de 20 anos e fundador do NERDIZMO. Foi editor do GamesBrasil, TechGuru, BABOO e já forneceu conteúdo para os principais portais do Brasil, como o UOL, GLOBO, MSN, TERRA, iG e R7. Também foi repórter das revistas MOVIE, EGW e Nintendo World.

Inscrever-se
Notificar de
guest

0 Comentários
mais antigos
mais recentes Mais votado
Feedbacks embutidos
Ver todos os comentários
Pin