Piloto automático da Tesla matou motorista? Julgamento começa a decidir nesta quinta

Julgamento sobre um acidente da Tesla em 2019 pode oferecer um vislumbre da estratégia da empresa para defender sua tecnologia

PUBLICIDADE

Por Trisha Thadani
Atualização:

THE WASHINGTON POST - A Tesla enfrentará um júri nesta quinta-feira, 28, sobre o papel que seu recurso de piloto automático pode ter desempenhado em um acidente faltal em 2019 - esse caso está entre os primeiros de uma série envolvendo a tecnologia que serão litigados em todo os EUA nos próximos meses.

O julgamento desta quinta diz respeito à morte de Micah Lee, que supostamente estava usando os recursos do piloto automático em seu Tesla Model 3 enquanto rodava com sua família por uma rodovia a mais de 100 km/h. De repente, segundo os documentos do tribunal, o carro saiu da estrada, bateu em uma palmeira e pegou fogo. Lee morreu na colisão, enquanto seu filho e sua esposa ficaram gravemente feridos.

PUBLICIDADE

O família de Lee processou a Tesla, argumentando que a empresa sabia que sua tecnologia de direção assistida e os recursos de segurança aprimorados estavam com defeito quando vendeu o carro. Os argumentos iniciais provavelmente oferecerão um vislumbre da estratégia da Tesla para defender seus recursos do piloto automático, que foram associados a mais de 700 acidentes desde 2019 e pelo menos 17 mortes, de acordo com uma análise do jornal Washington Post dos dados da Administração Nacional de Segurança de Tráfego Rodoviário.

O conjunto de testes previstos para o próximo ano provavelmente também demonstrará o quanto a tecnologia realmente depende da intervenção humana - apesar das afirmações do CEO Elon Musk de que os carros que operam no piloto automático são mais seguros do que aqueles controlados por humanos. Os resultados podem representar um momento crucial para a Tesla, que há anos tenta se isentar de responsabilidade quando um de seus carros no piloto automático se envolve em um acidente.

Publicidade

“Para que a Tesla continue a colocar sua tecnologia nas ruas, ela terá que ser bem-sucedida nesses casos”, disse Ed Walters, que leciona direito de veículos autônomos na Universidade de Georgetown, EUA. “Se ela for responsabilizada por muitos acidentes, será muito difícil para a Tesla continuar lançando essa tecnologia.”

A Tesla não respondeu a um pedido de comentário da reportagem.

A empresa está enfrentando vários outros processos judiciais em todo o país envolvendo sua tecnologia piloto automático. Alguns discordam do marketing que a Tesla faz de seus recursos autônomos e argumentam que isso leva os motoristas a uma falsa sensação de segurança.

Muitos dos casos que irão a julgamento a partir de 2024 envolvem acidentes ocorridos anos atrás, um reflexo do aumento do uso de recursos assistidos pelo motorista e do longo processo legal envolvido na condução de um caso desse tipo pelo sistema judicial. Nos anos que se seguiram, a Tesla continuou a implantar sua tecnologia - parte dela ainda em fase de testes - em centenas de milhares de veículos nas estradas do país.

Publicidade

Acidente de carro Tesla matou motorista Foto: MONROE COUNTY SHERIFF'S DEPARTME

O que é o piloto automático da Tesla

O piloto automático, introduzido pela Tesla em 2014, é um conjunto de recursos que permite que o carro mantenha a velocidade e a distância atrás de outros veículos e siga as linhas da pista, entre outras tarefas. A Tesla diz que os motoristas devem monitorar a estrada e intervir quando necessário.

“Para ser mais claro”, disse a Tesla em seus documentos judiciais, “o piloto automático é um sistema avançado de assistência ao motorista. Não é uma tecnologia de condução autônoma e não substitui o motorista”.

Embora os carros da Tesla ainda exijam que um ser humano que preste atenção ao volante, os sistemas de assistência ao motorista estão cada vez mais capazes. E a crescente prevalência de recursos baseados em automação nas estradas do país levou legisladores e defensores da segurança a pressionar por mais regulamentação. Musk tem repetidamente elogiado a segurança e a sofisticação de sua tecnologia em relação aos motoristas humanos, citando as taxas de acidentes quando os modos de direção são comparados.

Em vários dos casos que serão julgados no próximo ano, os carros supostamente no piloto automático não agiram como esperado - acelerando inesperadamente, por exemplo, ou não reagindo quando outro veículo estava na frente deles. Em um dos casos, que deverá ser levado a júri nos próximos meses, um homem de 50 anos que dirigia no piloto automático morreu quando seu Tesla bateu em um caminhão.

Publicidade

PUBLICIDADE

Outro caso diz respeito a um Tesla no piloto automático que passou por um cruzamento enquanto o motorista não estava prestando atenção, bateu em um carro estacionado e matou uma pessoa que estava do lado de fora do veículo. Em outro caso, um Tesla no piloto automático bateu na traseira de um carro que mudou de faixa na frente do Tesla. Um jovem de 15 anos foi arremessado do carro da frente, matando-o. O processo alega que o Tesla não viu ou reagiu às condições de tráfego à sua frente.

Diante de um aumento acentuado de acidentes relacionados à Tesla envolvendo o piloto automático, a Administração Nacional de Segurança de Tráfego Rodoviário (NHTSA) abriu dezenas de investigações sobre as colisões nos últimos anos. A NHTSA também emitiu 16 recalls do Tesla Model 3 de 2019 e abriu sete investigações sobre aspectos da tecnologia - como aceleração súbita não intencional e colisões com veículos de emergência.

O acidente de 2019 envolvendo Lee não está sendo investigado pela NHTSA, e um porta-voz da agência se recusou a explicar o motivo. A agência também disse que o relato de um acidente envolvendo assistência ao motorista não implica, por si só, que a tecnologia tenha sido a causa.

“A NHTSA lembra ao público que todos os sistemas avançados de assistência ao motorista exigem que o motorista humano esteja sempre no controle e totalmente envolvido na tarefa de dirigir”, disse a porta-voz da NHTSA, Veronica Morales, ao Washington Post. “Assim, todas as leis estaduais consideram o motorista humano responsável pela operação de seus veículos.”

Publicidade

Piloto automático da Tesla já falhou no passado e vem sendo analisado Foto: Reuters

Antes de o carro de Lee colidir com a palmeira, dizem os documentos judiciais, ele tentou retomar o controle do carro, mas “os recursos de Piloto Automático e/ou da Segurança Ativa não permitiram”. Essa falha, de acordo com a reclamação, levou Lee a sofrer “ferimentos horríveis e, em última análise, fatais”.

“Se os recursos de Piloto Automático e/ou Segurança Ativa do veículo tivessem funcionado adequadamente, a morte de Micah Lee teria sido evitada”, de acordo com os documentos do tribunal. De acordo com um relatório toxicológico feito após o acidente, o nível de álcool no sangue de Lee, de 0,051%, sugeriu que ele pode ter consumido álcool antes do acidente - embora ainda estivesse dentro do limite legal na Califórnia.

Além de afirmar que o software estava com defeito, o processo também descreve várias aformações relacionadas ao projeto físico do carro. Em resposta à reclamação, a Tesla disse que o carro não estava em “condição defeituosa em nenhum momento quando deixou a posse, custódia ou controle da Tesla”.

Independentemente do resultado dos julgamentos, disse David Zipper, pesquisador visitante do Taubman Center for State and Local Government da Harvard Kennedy School, eles pelo menos destacarão como os EUA precisam de mais regulamentação sobre a tecnologia emergente.

Publicidade

“Os motoristas (de Teslas) entendem os riscos”, disse Zipper. “Mas mesmo que eles aceitem isso, o que dizer de todos que estão em uma rua ou estrada pública e não estão em um Tesla? Nenhum de nós se inscreveu para ser cobaia.” /TRADUZIDO POR ALICE LABATE

Tudo Sobre
Comentários

Os comentários são exclusivos para assinantes do Estadão.