
Em plena disputa das montadoras pela liderança em direção assistida, um dono de Tesla afirma que seu carro quase o jogou dentro de um lago com o Full Self-Driving ligado.
Daniel Milligan publicou o vídeo no X, marcando a Tesla e o chefe de IA de Autopilot, Ashok Elluswamy, e escreveu que “o Tesla tentou me dirigir para um lago hoje”.
O carro rodava a versão 14.2.2.4 do FSD, identificada como build 2025.45.9.1, um dos updates mais recentes liberados à frota, e o post passou de 1,2 milhão de visualizações rapidamente.
As imagens se somam a uma longa lista de situações perigosas envolvendo o FSD que vêm sendo acompanhadas há anos, com incidentes que vão muito além de pequenos trancos ou hesitações.
Veja também
Em maio de 2025, um Tesla em Full Self-Driving saiu abruptamente da pista e capotou outro carro, em um acidente que o motorista disse não conseguir evitar a tempo.
Em dezembro, na China, outro Tesla bateu de frente em um veículo durante uma transmissão ao vivo que demonstrava o FSD, depois que o sistema iniciou uma mudança de faixa para o sentido contrário.
My Tesla tried to drive me into a lake today! FSD version 14.2.2.4 (2025.45.9.1)@Tesla @aelluswamy pic.twitter.com/ykWZFjUm8k
— Daniel Milligan (@lilmill2000) February 16, 2026
Nem influenciadores escaparam: dois criadores que tentavam cumprir o desafio de Elon Musk de cruzar os EUA apenas com FSD não passaram da Califórnia, acertando detritos na estrada no trajeto.
A versão 14.2.2.4 envolvida no caso do lago começou a ser distribuída no fim de janeiro de 2026, sem notas de lançamento detalhadas em relação à 14.2.2.3, descrita apenas como polimento.
A série 14.2 trouxe um codificador de visão neural com resolução maior e melhorias no comportamento perto de veículos de emergência, mas os chamados “edge cases” perigosos continuam aparecendo.
O episódio estoura num momento em que o FSD está sob forte pressão regulatória, especialmente depois de uma ampla investigação aberta em outubro de 2025 pela NHTSA.
O órgão americano analisa 2,88 milhões de Teslas e conectou 58 incidentes ao FSD, incluindo 14 acidentes e 23 feridos, com foco em situações de avanço de sinal vermelho e invasão de pista oposta.
A NHTSA também abriu outra apuração sobre a forma como a Tesla reporta acidentes com Autopilot e FSD, já que mais de 50 mortes foram registradas em situações envolvendo esses assistentes.
Enquanto isso, o programa de Robotaxi “sem supervisão” da marca em Austin tem se mostrado bem menos autônomo do que o marketing sugeria, exigindo intervenção humana frequente.
Críticos apontam que o problema não é apenas o sistema errar, algo comum em qualquer assistência de nível 2, mas o uso do termo Full Self-Driving, que sugere capacidade que o produto ainda não entrega.
Em fevereiro, a Tesla transformou o FSD em serviço de assinatura, cobrando cerca de R$ 517 por mês, e deixou de vender o pacote fechado prometendo capacidades futuras.
Na prática, essa mudança indica um recuo silencioso: se o FSD é apenas um serviço mensal, não há mais compromisso formal de que se tornará realmente “sem supervisão” como Musk promete desde 2016.
Com novas investigações, vídeos virais e um carro quase entrando no lago em pleno 2026, cresce a pressão para que reguladores decidam até onde a Tesla poderá ir usando o rótulo de Full Self-Driving.
📨 Receba um email com as principais Notícias Automotivas do diaReceber emails
📲 Receba as notícias do Notícias Automotivas em tempo real!Canal do WhatsAppCanal do Telegram
Siga nosso site no Google Notícias










