THE WASHINGTON POST - O ônibus escolar exibia o sinal de pare e piscava luzes vermelhas de advertência quando Tillman Mitchell, de 17 anos, desceu do veículo em uma tarde de março. Em seguida, um Tesla Model Y se aproximou na North Carolina Highway 561. O carro — supostamente no modo piloto automático — não reduziu a velocidade.
Mitchell foi atingido a 70 km/h, segundo o relatório da polícia. O adolescente foi arremessado contra o para-brisa, voou no ar e caiu de cara na estrada, segundo sua tia-avó, Dorothy Lynch. O pai de Mitchell ouviu o acidente e saiu correndo da varanda para encontrar seu filho caído no meio da estrada.
“Se fosse uma criança menor”, disse Lynch, “estaria morta”.
O acidente no condado de Halifax, na Carolina do Norte, onde a tecnologia futurística desceu por uma rodovia rural com consequências devastadoras, foi um dos 736 acidentes nos Estados Unidos desde 2019 envolvendo Teslas no modo piloto automático. Os números são de uma análise do Washington Post com base nos dados da Administração Nacional de Segurança no Tráfego Rodoviário.
Esses acidentes aumentaram nos últimos quatro anos, refletindo os perigos associados ao uso cada vez mais generalizado da tecnologia futurista de assistência ao motorista da Tesla, bem como a presença crescente dos carros nas estradas do país.
O número de mortes e ferimentos graves associados ao piloto automático também cresceu significativamente. Quando as autoridades divulgaram, pela primeira vez, um relato parcial de acidentes envolvendo o piloto automático em junho de 2022, contaram apenas três mortes definitivamente ligadas à tecnologia. Os dados mais recentes incluem pelo menos 17 acidentes com morte, 11 deles desde maio, e cinco feridos graves.
Mitchell sobreviveu, mas sofreu uma fratura no pescoço, ficou com uma perna quebrada e teve que ser colocado em um ventilador. Ele ainda sofre de problemas de memória e tem dificuldade para andar. Sua tia-avó disse que o caso deveria servir de alerta sobre os perigos da tecnologia.
“Rezo para que este seja um processo de aprendizado”, disse Lynch. “As pessoas confiam demais quando se trata de uma peça de maquinário.”
O CEO da Tesla, Elon Musk, disse que os carros que operam no modo piloto automático são mais seguros do que aqueles pilotados apenas por motoristas humanos, citando taxas de acidentes quando os modos de direção são comparados.
Ele pressionou a montadora a desenvolver e implantar recursos programados para manobrar nas estradas — navegar em ônibus escolares parados, carros de bombeiros, sinais de parada e pedestres — argumentando que a tecnologia dará início a um futuro mais seguro e virtualmente livre de acidentes.
Leia Também:
Embora seja impossível dizer quantos acidentes podem ter sido evitados, os dados mostram falhas claras na tecnologia que está sendo testada em tempo real nas rodovias americanas.
Os 17 acidentes fatais de Tesla revelam padrões distintos, descobriu o Post: quatro envolveram uma motocicleta. Outro envolveu um veículo de emergência.
Enquanto isso, algumas das decisões de Musk — como expandir amplamente a disponibilidade dos recursos e remover os sensores de radar dos veículos — parecem ter contribuído para o aumento relatado de casos, de acordo com especialistas que conversaram com o jornal.
Tesla e Elon Musk não responderam a um pedido de comentário.
A NHTSA (sigla em inglês para Administração Nacional de Segurança no Tráfego Rodoviário) disse que um relatório de um acidente envolvendo assistência ao motorista não implica que a tecnologia tenha sido a causa.
“A NHTSA tem uma investigação ativa sobre o piloto automático da Tesla, incluindo a direção totalmente autônoma”, disse a porta-voz Veronica Morales, observando que a agência não comenta investigações em aberto.
“A NHTSA lembra ao público que todos os sistemas avançados de assistência ao motorista exigem que o motorista humano esteja no controle e totalmente envolvido na tarefa de dirigir o tempo todo. Consequentemente, todas as leis estaduais responsabilizam o motorista humano pela operação de seus veículos”, afirma o órgão.
Musk defendeu repetidamente sua decisão de levar tecnologias de assistência ao motorista aos proprietários da Tesla, argumentando que o benefício supera o dano.
“Na medida em que você acredita que adicionar autonomia reduz lesões e mortes, acho que você tem uma obrigação moral de implantá-la, mesmo que seja processado e culpado por muitas pessoas”, disse ele no ano passado. “Porque as pessoas cujas vidas você salvou não sabem que suas vidas foram salvas. E as pessoas que ocasionalmente morrem ou se machucam, elas definitivamente sabem.”
A ex-consultora sênior de segurança da NHTSA, Missy Cummings, professora da Faculdade de Engenharia e Computação da Universidade George Mason, disse que o aumento de acidentes com Tesla é preocupante.
“A Tesla está tendo acidentes mais graves — e fatais — do que as pessoas em um conjunto de dados normal”, disse ela em resposta aos números analisados pelo Post. Uma causa provável, afirma, é o lançamento ampliado ao longo do último ano e meio da função full self-driving, que traz assistência ao motorista para cidades e ruas residenciais. “É razoável esperar que isso esteja levando ao aumento das taxas de acidentes com o fato de que qualquer pessoa pode ter acesso à função? Claro, com certeza”, afirma.
Cummings disse que o número de mortes em comparação com os acidentes, em geral, também é uma preocupação.
Não está claro se os dados capturam todos os acidentes envolvendo os sistemas de assistência ao motorista da Tesla. Os dados da NHTSA incluem alguns incidentes em que não se sabe se o piloto automático ou a direção totalmente autônoma estava em uso. Isso inclui três mortes, incluindo uma no ano passado.
A NHTSA, principal reguladora de segurança automotiva do país, começou a coletar os dados depois que uma ordem federal em 2021 exigiu que as montadoras divulgassem acidentes envolvendo tecnologia de assistência ao motorista. O número total de acidentes envolvendo a tecnologia é minúsculo em comparação com todos os incidentes rodoviários (a NHTSA estima que mais de 40 mil pessoas morreram em naufrágios de todos os tipos no ano passado).
Desde que os requisitos dos relatórios foram introduzidos, a grande maioria das “falhas 807″, relacionadas à automação, envolveu a Tesla, mostram os dados. A empresa, que experimentou a automação de forma mais agressiva do que outras montadoras, também está ligada a quase todas as mortes.
A Subaru ocupa o segundo lugar com 23 acidentes relatados desde 2019. O enorme abismo provavelmente reflete uma implantação e uso mais amplos de automação na frota de veículos da Tesla, bem como a ampla gama de circunstâncias em que os motoristas da Tesla são incentivados a usar o piloto automático.
O piloto automático, que a Tesla introduziu em 2014, é um conjunto de recursos que permitem que o carro se mova da rampa de entrada para a de saída da rodovia, mantendo a velocidade e a distância atrás de outros veículos e seguindo as linhas da pista. A companhia o oferece como um recurso padrão em seus veículos, dos quais mais de 800 mil estão equipados com piloto automático nas estradas dos EUA.
O full self-driving, um recurso experimental que os clientes devem adquirir, permite que os Teslas manobrem do ponto A ao B seguindo as instruções passo a passo ao longo de uma rota, parando para sinais de parada e semáforos, fazendo curvas e mudanças de faixa e respondendo aos perigos ao longo do caminho. Com qualquer um dos sistemas, a Tesla diz que os motoristas devem monitorar a estrada e intervir quando necessário.
O aumento nas colisões coincide com o lançamento agressivo do full self-driving, que se expandiu de cerca de 12 mil usuários para quase 400 mil em pouco mais de um ano. Quase dois terços de todas as falhas de assistência ao motorista que a Tesla relatou à NHTSA ocorreram no ano passado.
Philip Koopman, professor da Carnegie Mellon University que conduziu pesquisas sobre segurança de veículos autônomos por 25 anos, disse que a prevalência de Teslas nos dados levanta questões cruciais.
“Um número significativamente maior certamente é motivo de preocupação”, disse ele. “Precisamos entender se é devido a acidentes realmente piores ou se há algum outro fator, como um número dramaticamente maior de milhas percorridas com o piloto automático ativado.”
Em fevereiro, a Tesla emitiu um recall de mais de 360 mil veículos equipados com full self-driving devido a preocupações de que o software levasse seus veículos a desobedecer semáforos, sinais de parada e limites de velocidade.
O descumprimento das leis de trânsito, segundo documentos publicados pela agência de segurança, “pode aumentar o risco de colisão se o motorista não intervir”. A Tesla disse que corrigiu os problemas com uma atualização de software sem fio, abordando remotamente o risco.
Enquanto a Tesla aprimorava constantemente seu software de assistência ao motorista, ela também tomou a medida sem precedentes de eliminar seus sensores de radar de carros novos e desativá-los de veículos já na estrada — privando-os de um sensor crítico enquanto Musk impulsionou um conjunto de hardware mais simples em meio à falta global de chips de computador. “Somente radares de alta resolução são relevantes”, disse Musk no ano passado.
Recentemente, a empresa tomou medidas para reintroduzir sensores de radar, de acordo com registros do governo relatados pela primeira vez pela Electrek.
Em uma apresentação em março, a Tesla alegou que a condução autônoma total trava a uma taxa pelo menos cinco vezes menor do que os veículos em direção normal, em uma comparação de quilômetros percorridos por colisão. Essa afirmação e a caracterização de Musk do piloto automático como “inequivocamente mais seguro” são impossíveis de testar sem acesso aos dados detalhados que a Tesla possui.
O piloto automático, em grande parte um sistema rodoviário, opera em um ambiente menos complexo do que a variedade de situações vivenciadas por um usuário típico da estrada.
Não está claro qual dos sistemas estava em uso nos acidentes fatais: a Tesla pediu à NHTSA que não divulgasse essa informação. Na seção dos dados da NHTSA especificando a versão do software, os incidentes da Tesla são lidos, em letras maiúsculas: “pode conter informações comerciais confidenciais”.
Tanto o piloto automático quanto a direção totalmente autônoma estão sob escrutínio nos últimos anos. O secretário de transporte Pete Buttigieg disse à Associated Press no mês passado que o piloto automático não é um nome apropriado “quando as letras miúdas dizem que você precisa ter as mãos no volante e os olhos na estrada o tempo todo”.
A NHTSA abriu várias investigações sobre as falhas da Tesla e outros problemas com seu software de assistência ao motorista. Um deles se concentrou na “frenagem fantasma”, um fenômeno no qual os veículos desaceleram abruptamente devido a perigos imaginários.
Em um caso no ano passado, detalhado pelo The Intercept, um Tesla Model S supostamente usando assistência ao motorista freou repentinamente no trânsito na ponte São Francisco-Baía de Oakland, resultando em um engavetamento de oito veículos que deixou nove pessoas feridas, incluindo uma criança de 2 anos.
Em outras reclamações apresentadas à NHTSA, os proprietários dizem que os carros pisaram no freio ao encontrar caminhões nas pistas que se aproximavam.
Muitas falhas envolvem configurações e condições semelhantes. A NHTSA recebeu mais de uma dúzia de relatórios de Teslas batendo em veículos de emergência estacionados enquanto estavam no piloto automático. No ano passado, a NHTSA atualizou sua investigação desses incidentes para uma “análise de engenharia”.
Também no ano passado, a NHTSA abriu duas investigações especiais consecutivas sobre acidentes fatais envolvendo veículos e motociclistas da Tesla. Um deles ocorreu em Utah, quando um motociclista em uma Harley-Davidson viajava em uma pista na Interestadual 15, fora de Salt Lake City, pouco depois da 1h, quando foi atingida por trás por um Tesla no piloto automático, segundo as autoridades.
“O motorista do Tesla não viu o motociclista e colidiu com a traseira da motocicleta, que jogou o motociclista para fora da moto”, disse o Departamento de Segurança Pública de Utah. O motociclista morreu no local, disseram as autoridades.
“É muito perigoso para as motocicletas estar perto de Teslas”, disse Cummings.
Das centenas de acidentes de assistência ao motorista da Tesla, a NHTSA concentrou-se em cerca de 40 incidentes para uma análise mais aprofundada, na esperança de obter uma visão mais profunda de como a tecnologia opera. Entre eles estava o acidente na Carolina do Norte envolvendo Mitchell, o aluno que desembarcava do ônibus escolar.
Depois disso, Mitchell acordou no hospital sem se lembrar do que aconteceu. Ele ainda não entendeu a seriedade disso, disse sua tia. Seus problemas de memória o estão atrapalhando enquanto ele tenta voltar à escola. A agência local WRAL informou que o impacto do acidente quebrou o para-brisa do Tesla.
O motorista do Tesla, Howard G. Yee, foi acusado de vários delitos no acidente, incluindo direção imprudente, ultrapassar um ônibus escolar parado e bater em uma pessoa, um crime de classe I, segundo o sargento da Patrulha Rodoviária Estadual da Carolina do Norte, Marcus Bethea.
As autoridades disseram que Yee prendeu pesos no volante para induzir o piloto automático a registrar a presença das mãos do motorista: o piloto automático desativa as funções se a pressão na direção não for aplicada após um longo período. Yee não respondeu a um pedido de comentário.
A NHTSA continua investigando o acidente e uma porta-voz da agência se recusou a oferecer mais detalhes, citando a investigação em andamento. A Tesla pediu à agência que excluísse o resumo da empresa sobre o incidente, dizendo que “pode conter informações comerciais confidenciais”.
Leia Também:
Lynch disse que sua família mantém Yee em seus pensamentos e considera suas ações como um erro motivado pela confiança excessiva na tecnologia, o que os especialistas chamam de “complacência de automação”.
“Não queremos que a vida dele seja arruinada por causa desse estúpido acidente”, disse ela.
Mas quando questionado sobre Musk, Lynch teve palavras mais duras: “Acho que eles precisam proibir a direção automatizada”, disse. “Acho que deveria ser proibido.”