Um dos trabalhos mais desafiadores e perigosos da Tesla envolve uma equipe interna chamada de Project Rodeo.
Esses motoristas são encarregados de testar os limites do software de direção autônoma da montadora, presente em modelos como o Model 3 e Model S.
Treinados para esperar o máximo possível antes de intervir, eles seguem com o teste mesmo quando antecipam um possível acidente, tudo para avaliar a capacidade do sistema.
Em parte das ocasiões, esses testes incluem pedestres desavisados em ruas públicas, inclusive pessoas alcoolizadas à noite.
Segundo a Business Insider, que conversou com nove atuais e ex-motoristas do Project Rodeo, o nome faz alusão à missão de “domar” o carro pelo maior tempo possível antes de assumir o controle. A justificativa para essa prática é que quanto mais tempo o veículo opera sozinho, mais dados a equipe consegue coletar.
Embora esse tipo de teste possa fazer sentido em pistas fechadas, onde os obstáculos são controlados e os pedestres são manequins, o cenário muda drasticamente nas vias públicas, onde motoristas, ciclistas e pedestres reais podem ser colocados em risco sem seu conhecimento.
Os motoristas envolvidos relataram situações perigosas.
Um deles contou que dirigia pela região de bares da cidade durante a madrugada para observar como o software FSD da Tesla reagia a pedestres bêbados. Outro lembrou de testes em faixas de pedestres no campus da Universidade de Stanford, onde o software foi levado ao extremo.
A pressão para testar o sistema ao máximo é intensa, segundo relatos. Alguns motoristas disseram que, embora não fossem instruídos a violar leis, recebiam críticas se os supervisores achassem que intervieram cedo demais.
Houve casos em que os motoristas permitiram que o carro passasse por sinais amarelos ou dirigisse abaixo do limite de velocidade em vias expressas, tudo para manter o software em controle.
Um motorista descreveu um momento em que o carro avançou em direção a um ciclista em uma rotatória, levando o homem a pular da bicicleta assustado. “Tudo o que pude fazer foi pisar nos freios”, relatou.
O supervisor elogiou o comportamento, dizendo que foi “perfeito” e era exatamente isso que queriam.
Especialistas em segurança, como Mark Rosekind, ex-administrador da NHTSA, destacaram a falta de regulamentações rigorosas sobre testes de veículos autônomos e a dependência de relatórios das próprias empresas.
Philip Koopman, da Carnegie Mellon University, classificou a abordagem da Tesla como “irresponsável”, argumentando que tais cenários deveriam ocorrer em pistas fechadas.
Ele ressaltou que essa prática impõe riscos a terceiros que não consentiram em servir como cobaias.
Embora a Tesla instrua seus motoristas de teste a manter o carro no controle o máximo possível, sua própria documentação lembra aos consumidores que as funcionalidades do FSD exigem supervisão ativa e não tornam o veículo totalmente autônomo.
Quer receber todas as nossas notícias em tempo real?Acesse nossos exclusivos: Canal do Whatsapp e Canal do Telegram!