
DETROIT — A agência de segurança rodoviária do governo dos EUA está investigando o sistema “Full Self-Driving” da Tesla depois de receber relatos de acidentes em condições de baixa visibilidade, incluindo um que matou um pedestre.
A Administração Nacional de Segurança de Tráfego Rodoviário disse em documentos que abriu a investigação na quinta-feira, depois que a empresa relatou quatro acidentes quando Teslas encontrou brilho do sol, neblina e poeira transportada pelo ar.
Além da morte do pedestre, outro acidente envolveu feridos, disse a agência.
Os investigadores analisarão a capacidade da “condução totalmente autônoma” para “detectar e responder adequadamente às condições de visibilidade reduzida da estrada e, em caso afirmativo, as circunstâncias que contribuem para esses acidentes”.
A investigação cobre cerca de 2,4 milhões de Teslas dos anos modelo de 2016 a 2024.
Uma mensagem foi deixada na sexta-feira pedindo comentários da Tesla, que disse repetidamente que o sistema não pode dirigir sozinho e que os motoristas humanos devem estar prontos para intervir em todos os momentos.
Na semana passada, a Tesla realizou um evento em um estúdio de Hollywood para revelar um robotáxi totalmente autônomo, sem volante ou pedais. Musk, que já havia prometido veículos autônomos, disse que a empresa planeja ter os Modelos Y e 3 autônomos rodando sem motoristas humanos no próximo ano. Robotaxis sem volantes estarão disponíveis em 2026, começando na Califórnia e no Texas, disse ele.
O impacto da investigação nas ambições de condução autônoma da Tesla não está claro. A NHTSA teria que aprovar qualquer robotáxi sem pedais ou volante, e é improvável que isso aconteça enquanto a investigação estiver em andamento. Mas se a empresa tentar implantar veículos autônomos em seus modelos existentes, isso provavelmente cairá nas regulamentações estaduais. Não existem regulamentações federais focadas especificamente em veículos autônomos, embora estes devam atender a regras de segurança mais amplas.
A NHTSA também disse que verificaria se quaisquer outros acidentes semelhantes envolvendo “Full Self-Driving” aconteceram em condições de baixa visibilidade e buscará informações da empresa sobre se alguma atualização afetou o desempenho do sistema nessas condições.
“Em particular, esta revisão avaliará o momento, a finalidade e as capacidades de tais atualizações, bem como a avaliação da Tesla sobre seu impacto na segurança”, afirmam os documentos.
A Tesla relatou os quatro acidentes à NHTSA sob ordem da agência que abrange todas as montadoras. Um banco de dados da agência diz que o pedestre foi morto em Rimrock, Arizona, em novembro de 2023, após ser atropelado por um Tesla Model Y 2021. Rimrock fica a cerca de 100 milhas (161 quilômetros) ao norte de Phoenix.
O Departamento de Segurança Pública do Arizona disse em comunicado que o acidente aconteceu pouco depois das 17h do dia 27 de novembro na Interestadual 17. Dois veículos colidiram na rodovia, bloqueando a faixa da esquerda. Um Toyota 4Runner parou e duas pessoas desceram para ajudar no controle de trânsito. Um Tesla Model Y vermelho atingiu o 4Runner e uma das pessoas que saíram dele. Uma mulher de 71 anos de Mesa, Arizona, foi declarada morta no local.
A colisão aconteceu porque o sol estava nos olhos do motorista do Tesla, então o motorista do Tesla não foi acusado, disse Raul Garcia, oficial de informação pública do departamento. O brilho do sol também contribuiu para a primeira colisão, acrescentou.
Tesla fez recall de “Full Self-Driving” duas vezes sob pressão da NHTSA, que em julho buscou informações das autoridades policiais e da empresa depois que um Tesla usando o sistema atingiu e matou um motociclista perto de Seattle.
Os recalls foram emitidos porque o sistema foi programado para executar sinais de parada em velocidades lentas e porque o sistema desobedeceu a outras leis de trânsito. Ambos os problemas deveriam ser corrigidos com atualizações de software online.
Os críticos disseram que o sistema de Tesla, que usa apenas câmeras para detectar perigos, não possui sensores adequados para ser totalmente autônomo. Quase todas as outras empresas que trabalham com veículos autônomos usam sensores de radar e laser, além de câmeras, para enxergar melhor no escuro ou em condições de pouca visibilidade.
Musk disse que os humanos dirigem apenas com a visão, então os carros deveriam poder dirigir apenas com câmeras. Ele chamou o lidar (detecção e alcance de luz), que usa lasers para detectar objetos, de uma “tarefa tola”.
Os recalls de “Full Self-Driving” chegaram após uma investigação de três anos sobre o sistema de piloto automático menos sofisticado da Tesla colidindo com veículos de emergência e outros veículos estacionados em rodovias, muitos com luzes de alerta piscando.
Essa investigação foi encerrada em abril passado, depois que a agência pressionou a Tesla a fazer o recall de seus veículos para reforçar um sistema fraco que garantia que os motoristas prestassem atenção. Algumas semanas após o recall, a NHTSA começou a investigar se o recall estava funcionando.
A NHTSA iniciou sua investigação de acidente de piloto automático em 2021, após receber 11 relatos de que Teslas que usavam piloto automático atingiram veículos de emergência estacionados. Em documentos que explicam por que a investigação foi encerrada, a NHTSA disse que finalmente encontrou 467 acidentes envolvendo o piloto automático, resultando em 54 feridos e 14 mortes. O piloto automático é uma versão sofisticada do controle de cruzeiro, enquanto o “Full Self-Driving” foi considerado por Musk como capaz de dirigir sem intervenção humana.
A investigação aberta quinta-feira entra em um novo território para a NHTSA, que anteriormente via os sistemas da Tesla como auxiliares aos motoristas, em vez de dirigirem eles próprios. Com a nova investigação, a agência está se concentrando nas capacidades de “condução totalmente autônoma”, em vez de simplesmente garantir que os motoristas estejam prestando atenção.
Michael Brooks, diretor executivo da organização sem fins lucrativos Center for Auto Safety, disse que a investigação anterior do Autopilot não analisou por que os Teslas não estavam vendo e parando para veículos de emergência.
“Antes eles colocavam a responsabilidade sobre o motorista e não sobre o carro”, disse ele. “Aqui eles estão dizendo que esses sistemas não são capazes de detectar adequadamente riscos à segurança, estejam os motoristas prestando atenção ou não.”