Elon Musk criou sua empresa de carros elétricos, a Tesla, em torno da promessa de que ela representaria o futuro da direção – uma frase estampada no site da montadora.
Grande parte dessa promessa tinha como base o Autopilot (piloto automático), um sistema de recursos que poderia dirigir, frear e acelerar os elegantes veículos elétricos da empresa nas rodovias. Inúmeras vezes, Musk declarou que a direção realmente autônoma estava quase chegando – o dia em que um Tesla poderia dirigir a si mesmo – e que a capacidade seria entregue aos motoristas pelo ar, por meio de atualizações de software.
Ao contrário dos especialistas em tecnologia de quase todas as outras empresas trabalhando com veículos autônomos, Musk insistia que a autonomia poderia ser alcançada apenas com câmeras monitorando seus arredores. Mas muitos engenheiros da Tesla questionaram se era seguro o suficiente confiar em câmeras sem tirar proveito de outros dispositivos sensíveis – e se Musk estava prometendo demais aos motoristas ao falar das capacidades do Autopilot.
Agora, essas questões estão no centro de uma investigação pela Administração Nacional de Segurança de Tráfego Rodoviário dos Estados Unidos (NHTSA, na sigla em inglês) sobre pelo menos 12 acidentes em que Teslas usando o piloto automático colidiram com caminhões de bombeiros estacionados, carros de polícia e outros veículos de emergência, matando uma pessoa e ferindo outras 17.
Famílias estão processando a Tesla por causa de acidentes fatais e os clientes da montadora estão processando a empresa por apresentar de forma equivocada o Autopilot e um conjunto de serviços relacionados conhecido como Autodireção Completa (FSD, na sigla em inglês).
A tecnologia que funcionava como a força condutora por trás do piloto automático foi enaltecida por Musk de uma maneira que outras montadoras não estavam dispostas a fazer, mostram entrevistas com 19 pessoas que trabalharam no projeto na última década. Musk enganou os compradores várias vezes ao falar das habilidades dos serviços, dizem muitas dessas pessoas. Todas falaram sob condição de anonimato por temerem retaliações de Musk e da Tesla.
Musk e o principal advogado da Tesla não responderam os diversos convites enviados por e-mail para participarem desta reportagem durante várias semanas, incluindo uma lista detalhada de perguntas. Mas a empresa tem afirmado repetidamente que cabe aos motoristas se manterem alertas e assumirem o controle da direção caso o piloto automático não funcione corretamente.
Desde que Tesla começou a trabalhar com o Autopilot, tem havido uma preocupação com a segurança e o desejo de Musk de comercializar os carros da Tesla como maravilhas tecnológicas.
Durante anos, Musk disse que os carros da Tesla estavam à beira da autonomia total.
“A principal informação é que todos os veículos da Tesla que saem da fábrica têm todo o hardware necessário para a autonomia de nível 5”, declarou ele em 2016. A afirmação surpreendeu e preocupou alguns daqueles trabalhando no projeto, já que a Sociedade de Engenheiros Automotivos (SAE) define o nível 5 como automação completa da direção.
Há pouco tempo, ele disse que o novo software – atualmente parte de um teste beta por um número limitado de proprietários de Teslas que compraram o pacote FSD – permitirá que os carros dirijam a si mesmos nas ruas da cidade, assim como nas rodovias. Mas, assim como no caso do piloto automático, o manual da Tesla diz que os motoristas devem manter as mãos no volante, preparados para assumir o controle do carro a qualquer momento.
As autoridades reguladoras alertaram que tanto a Tesla como Musk exageraram na sofisticação do Autopilot, encorajando algumas pessoas a usá-lo de forma incorreta.
“O que me preocupa é o discurso usado para descrever as habilidades do veículo”, disse Jennifer Homendy, presidente do Conselho Nacional de Segurança nos Transportes dos EUA (NTSB, na sigla em inglês), que investigou os acidentes envolvendo o uso do piloto automático e criticou o design do sistema. “Isso pode ser muito perigoso.”
Além disso, alguns que trabalharam por muito tempo com veículos autônomos para outras empresas – assim como sete ex-integrantes da equipe do Autopilot – questionaram a prática da Tesla de constantes modificações no piloto automático e no FSD, realizadas em larga escala para os motoristas por meio de atualizações de software, dizendo que isso pode ser perigoso porque os compradores nunca estão seguros o bastante do que o sistema pode ou não fazer.
As escolhas de hardware também levantaram questões de segurança. Dentro da Tesla, alguns defendiam o emparelhamento de câmeras com radar e outros sensores que funcionassem melhor em caso de chuva e neve intensas, sol forte e outras condições meteorológicas difíceis. Durante vários anos, o Autopilot contou com radar e, por um tempo, a Tesla trabalhou no desenvolvimento de sua própria tecnologia de radar. Mas três pessoas que trabalharam no projeto afirmaram que Musk disse repetidamente aos integrantes da equipe do piloto automático que os humanos podiam dirigir com apenas dois olhos e que isso significava que os carros deveriam ser capazes de dirigir apenas com as câmeras.
Eles disseram que Musk via isso como “um retorno aos princípios iniciais” – uma expressão que ele e outros no setor da tecnologia há muito usam para se referir a deixar de lado as práticas padrão e repensar os problemas do zero.
Em maio, Musk disse no Twitter que a Tesla não estava mais colocando radares nos carros saindo das fábricas. Ele disse que a empresa tinha testado as implicações de segurança de não usar radares, porém não deu mais detalhes.
Algumas pessoas elogiaram Musk, dizendo que uma certa dose de compromisso e risco era justificável, já que ele se empenhava para alcançar a produção em massa e, no final das contas, mudar a indústria automobilística.
Mas, recentemente, até mesmo Musk manifestou algumas dúvidas em relação à tecnologia da Tesla. Depois de descrever várias vezes o FSD em discursos, entrevistas e nas redes sociais como um sistema à beira da autonomia completa, em agosto, Musk o chamou de “não ótimo”. A equipe trabalhando no recurso, ele escreveu no Twitter, “está se esforçando para melhorá-lo o mais rápido possível”.
Câmeras como olhos
A Tesla começou a desenvolver o Autopilot há mais de sete anos como um esforço para atender aos novos padrões de segurança na Europa, que exigiam tecnologias como a frenagem automática, de acordo com três pessoas familiarizadas com as origens do projeto.
A empresa originalmente chamou o recurso de projeto de “assistência avançada ao motorista”, mas, pouco depois, estava em busca de um novo nome. Os executivos, liderados por Musk, decidiram por “Autopilot”, embora alguns engenheiros da Tesla desaprovassem o nome por dar uma ideia equivocada, eles preferiam “Copilot” (copiloto) e outras opções, segundo essas três pessoas.
O nome teve como inspiração o sistema de aviação que permite aos aviões, em condições ideais, voar sozinhos, com intervenção limitada do piloto.
No anúncio oficial do recurso, em outubro de 2014, a Tesla disse que o sistema iria frear automaticamente e manter o carro na pista, mas acrescentou que “o motorista, no fim, ainda é responsável pelo controle do carro”. E dizia que os carros autônomos estavam “ainda a anos de se tornarem realidade”.
No início, o piloto automático usava câmeras, radar e sensores de ondas sonoras. Mas Musk disse aos engenheiros que o sistema deveria, em algum momento, ser capaz de dirigir de forma autônoma durante todo o trajeto percorrido – e fazer isso apenas com câmeras, de acordo com três pessoas que trabalharam no projeto.
Elas disseram que a equipe do Autopilot continuou a desenvolver o sistema usando radar e até mesmo planejava expandir o número de sensores de radar em cada carro, assim como testar o LiDAR – dispositivos de “detecção e alcance de luz” que medem distâncias usando pulsos de laser.
Mas Musk insistia que sua metáfora dos dois olhos era o caminho a seguir e questionou se o radar, no fim, valia a dor de cabeça e as despesas de comprar e integrar tecnologia de radar de terceiros, disseram quatro pessoas que trabalharam na equipe do piloto automático.
Com o tempo, a empresa e a equipe chegaram a um modo de pensar semelhante, dando mais ênfase à tecnologia de câmeras, disseram essas pessoas.
Outras empresas desenvolvendo sistemas de assistência de direção e carros completamente autônomos achavam que as câmeras não eram suficientes. O Google, por exemplo, equipou seus veículos autônomos em teste com caros dispositivos LiDAR do tamanho de baldes, fixados no teto dos automóveis.
As câmeras, por outro lado, eram baratas e pequenas, o que as tornava interessantes para a Tesla e seus carros elegantes. O radar, que usa ondas de rádio e existe há décadas, era mais barato do que o LiDAR, uma tecnologia menos comum. Mas, de acordo com três pessoas que trabalharam no projeto, alguns engenheiros apoiaram a estratégia de Musk de usar apenas câmeras, argumentando que o radar nem sempre era preciso e que era difícil combinar os dados dele com as informações das câmeras.
Os especialistas em direção autônoma disseram que a analogia das câmeras com olhos humanos de Musk era extremamente equivocada, assim como oito ex-engenheiros do Autopilot entrevistados para esta reportagem, embora alguns tenham dito que havia colegas que apoiavam a posição de Musk.
A estética também influenciou as decisões quanto ao radar.
No final de 2014, a Tesla começou a instalar radares em seus sedans Model S enquanto se preparava para lançar a primeira versão do Autopilot. Mas Musk não gostou de, ao olhar para o carro, o radar parecer um buraco aberto na frente dos veículos e disse aos engenheiros para instalar um lacre de borracha, de acordo com duas pessoas que trabalhavam no projeto na época; apesar de alguns funcionários terem alertado que o lacre poderia acumular neve e gelo e impedir o funcionamento adequado do sistema.
Essas pessoas disseram que a empresa seguiu as instruções de Musk sem testar o projeto durante o inverno, mas corrigiu o problema depois que os clientes reclamaram que o radar parava de funcionar no inverno.
Em meados de 2015, Musk se reuniu com um grupo de gerentes de engenharia da Tesla para discutir os planos deles para a segunda versão do Autopilot. Um gerente, veterano da indústria automobilística chamado Hal Ockerse, disse a Musk que gostaria de incluir um chip de computador e outro hardware que pudesse monitorar os componentes físicos do piloto automático e oferecer backup se as partes do sistema parassem de funcionar de repente, segundo duas pessoas a par da reunião.
Mas, de acordo com elas, Musk não gostou da ideia e argumentou que isso retardaria o andamento do projeto enquanto a Tesla trabalhava para construir um sistema que pudesse conduzir carros de forma autônoma. Já zangado devido ao mau funcionamento do piloto automático em seu trajeto matinal naquele dia, Musk criticou severamente Ockerse por ter sugerido a ideia. Pouco depois, Ockerse deixou a empresa.
No fim de 2015, Musk estava dizendo publicamente que os Teslas seriam capazes de dirigir a si mesmos dentro de dois anos. “Acho que temos todas as peças e é apenas questão de refinar essas peças, colocá-las no lugar e garantir que funcionem em um número gigante de ambientes – e, então, terminaremos”, disse ele à revista Fortune.
Outras empresas como Google, Toyota e Nissan, que também estão trabalhando na busca da direção autônoma, não demonstraram nada próximo desse otimismo em suas declarações públicas.
Um acidente fatal
Em maio de 2016, cerca de seis meses depois de o comentário de Musk ser publicado na revista Fortune, o dono de um Model S, Joshua Brown, morreu, na Flórida, quando o piloto automático falhou em reconhecer uma carreta passando na frente do automóvel. O carro de Brown tinha radar e câmera.
Musk fez uma breve reunião com a equipe do Autopilot e abordou sucintamente o acidente. Ele não se aprofundou em detalhes sobre o que havia dado errado, mas disse à equipe que a empresa precisava trabalhar para garantir que seus carros não colidissem com nada, de acordo com duas pessoas que participaram da reunião.
Posteriormente, a Tesla disse que durante o acidente, o piloto automático não conseguiu distinguir entre o caminhão branco e o céu brilhante. A Tesla nunca explicou publicamente por que o radar não impediu o acidente. A tecnologia de radar, assim como as câmeras e o LiDAR, não é perfeita. Mas a maioria na indústria acredita que isso significa que você precisa do maior número possível de tipos de sensores.
Menos de um mês depois do acidente, Musk disse, em um evento organizado pelo site de tecnologia Recode, que a direção autônoma era “praticamente um problema resolvido” e que os Teslas já podiam dirigir de modo mais seguro que os humanos. Ele não mencionou o acidente que causou a morte de Brown, embora a Tesla tenha dito em uma postagem de seu blog poucas semanas depois – intitulada “Uma perda trágica” – que havia informado o ocorrido imediatamente aos reguladores federais.
Embora não esteja claro se eles foram influenciados pelo acidente fatal, pouco depois, Musk e a Tesla mostraram um interesse renovado no radar, de acordo com três engenheiros que trabalharam no Autopilot. A empresa começou uma iniciativa para construir sua própria tecnologia de radar, em vez de usar sensores construídos por outros fornecedores. Em outubro de 2016, a Tesla contratou Duc Vu, especialista na área, que trabalhava na empresa de autopeças Delphi.
Mas, 16 meses depois, Vu repentinamente cortou relações com a empresa depois de um desentendimento que teve com outro executivo em relação a um novo sistema de fiação nos carros da Tesla, disseram as três pessoas. Nas semanas e meses seguintes, outros integrantes da equipe de radar também deixaram a Tesla.
Durante vários meses após esses desfalques, a Tesla reclassificou a iniciativa do radar como um projeto de pesquisa, em vez de um ativamente voltado para a produção, disseram as três pessoas.
A busca pelos carros totalmente autônomos
À medida que a Tesla se aproximava da apresentação do Autopilot 2.0, a maior parte da equipe do Autopilot abandonava suas tarefas habituais para trabalhar em um vídeo destinado a mostrar apenas o quanto o sistema poderia ser autônomo. Mas o vídeo final não ofereceu uma visão completa de como o carro funcionou durante as filmagens.
O trajeto percorrido por ele havia sido mapeado com antecedência por um software que criou um mapa digital em 3D, recurso não disponível para os motoristas que usam a versão comercial do Autopilot, segundo dois ex-integrantes da equipe do piloto automático. Em um determinado momento durante a filmagem do vídeo, o carro bateu em uma barreira no acostamento próximo à Tesla enquanto usava o Autopilot e teve que ser consertado, disseram três pessoas que trabalharam na gravação.
O vídeo foi usado depois para promover os recursos do piloto automático e ainda estava no site da Tesla quando essa reportagem foi publicada.
Quando Musk anunciou o Autopilot 2.0, em outubro de 2016, disse na entrevista coletiva que todos os novos carros da Tesla agora contavam com câmeras, poder computacional e todos os outros hardwares de que precisariam para uma “direção totalmente autônoma” – não um termo técnico, mas uma expressão que sugeria uma direção verdadeiramente autônoma.
Suas declarações pegaram a equipe de engenharia de surpresa, e alguns acharam que Musk estava prometendo algo que não era possível, de acordo com duas pessoas que trabalharam no projeto.
Sterling Anderson, que liderou o projeto na época e, mais tarde, fundou uma empresa de direção autônoma chamada Aurora, disse às equipes de vendas e marketing da Tesla que elas não deveriam se referir à tecnologia da empresa como “autônoma” ou “sem motorista” porque isso passaria uma ideia equivocada ao público, segundo dois ex-funcionários.
Alguns na empresa talvez tenham dado ouvidos ao conselho, mas a Tesla logo depois estava usando o termo “direção totalmente autônoma” como a maneira padrão de descrever sua tecnologia.
Em 2017, a Tesla começou a vender um conjunto de serviços que a empresa descreveu como uma versão mais avançada do Autopilot, chamando o pacote de Autodireção Completa (FSD, na sigla em inglês). Suas funcionalidades incluem atender a semáforos e placas de “pare” – mudar de faixa sem o comando do motorista. A empresa vendeu o pacote por até US$ 10 mil.
Os engenheiros que trabalharam na tecnologia reconhecem que esses serviços ainda não alcançaram a total autonomia implícita em seu nome e prometida por Musk em declarações públicas.“Estou extremamente confiante de que o carro irá dirigir a si mesmo com a confiabilidade superior a de um humano este ano”, disse ele durante uma reunião de resultados em janeiro. “Esse é um feito e tanto.”
No início de novembro, a Tesla fez o recall de aproximadamente 12 mil veículos que faziam parte do teste beta dos novos recursos do FSD, depois de instalar uma atualização de software que, segundo a empresa, talvez provocasse acidentes devido à ativação inesperada do sistema de freio de emergência dos carros.
Amnon Shashua, CEO da Mobileye, ex-fornecedora da Tesla que tem testado uma tecnologia semelhante à da fabricante de carros elétricos, disse que a ideia de Musk de usar apenas câmeras em um sistema de direção autônoma poderia, no fim das contas, funcionar; embora outros sensores possam ser necessários no curto prazo. Ele também disse que Musk talvez exagerasse sobre as habilidades da tecnologia da empresa, mas que essas declarações não deveriam ser levadas muito a sério.
“Não devemos nos preocupar com o que a Tesla diz”, disse Shashua. “A verdade não é necessariamente o objetivo final dela. O objetivo final dela é conquistar clientes.”
Os comentários são exclusivos para assinantes do Estadão.