Pense na situação: o ano é 2020 e a situação diplomática entre Estados Unidos e Coreia do Norte é tensa. Uma rede de televisão recebe uma filmagem inédita, de fonte anônima, que mostra o líder Kim Jong-un discutindo com generais o lançamento de um ataque nuclear. Na Casa Branca, o vídeo é analisado, mas a inteligência não consegue verificar a autenticidade. O presidente americano tem que agir -- e ordena um contra-ataque. Uma guerra começa.
+++Recebeu algum boato pelo WhatsApp? Envie para o Estadão Verifica
O pesquisador Giorgio Patrini, da Universidade de Amsterdã, na Holanda, imaginou o cenário acima para alertar sobre uma preocupante modalidade de informação falsa: os deepfakes. São vídeos que simulam cenas aplicando técnicas de inteligência artificial a imagens existentes. Até pouco tempo, o fenômeno se restringia ao mundo de filmes adultos. Mas, com o avanço da tecnologia de machine learning, há a preocupação de que filmagens falsas possam comprometer o processo eleitoral e outros aspectos da vida moderna.
+++Projetos de lei contra notícias falsas atropelam liberdade de expressão
"Se houver incentivo financeiro ou político suficiente para que atores mal-intencionados façam isso, é inteiramente possível que a fabricação de vídeos seja usada em futuras campanhas políticas", diz Patrini.
Synthesizing Obama: projeto da Universidade de Washington mostrou que é possível criar vídeos falsos realistas com a imagem do ex-presidente americano
Patrini ressalta que, de tão forte o impacto de um vídeo falso, a mensagem manipulada tende a ser aceita por quem quer acreditar nela -- mesmo que comprovada a falsidade. "Os psicólogos nos advertem de duas falácias humanas: a tendência a acreditar em informações falsas após exposição repetida (efeito de verdade ilusório) e a acreditar em informações falsas quando apenas confirma nossas crenças anteriores, ou seja, viés de confirmação."
+++'Chupa cabra' da urna eletrônica? Vídeo viral sobre fraude nas eleições é mentira
O cientista da computação brasileiro Virgilio Almeida, professor associado de Harvard, alerta, no entanto, que a produção de vídeos falsos sem grande refinamento já é acessível hoje. "Se pensarmos que já em 2014 usaram bots, isso certamente vai ser utilizado. Mas as pessoas acreditam muito no que veem. Muitos não vão acreditar, mas muitos vão. O processo eleitoral passa a ser muito levado por isso."
Se as eleições deste ano já podem ter o rebuliço do compartilhamento de vídeos falsos, Patrini salienta que as possíveis repercussões da manipulação audiovisual vão além da política. Considere, por exemplo, o uso de áudios e vídeos como provas em processos criminais. Se não pudermos mais confiar em sua autenticidade, como poderemos aceitá-los como evidência?
Soluções. Se o prognóstico das deepfakes é pessimista, isso se dá, em grande parte, porque ainda não há técnica desenvolvida para identificar os audiovisuais falsos. "É muito difícil descobrir vídeos falsos e não existe detectores em larga escala. As técnicas de perícia digital estão muito atrás", aponta Almeida.
Patrini sugere que a tecnologia de defesa contra deepfakes siga dois caminhos. O primeiro seria a criação de uma assinatura digital em vídeos - análoga a marcas d'água em notas de dinheiro - que garantiria a autenticidade da câmera que deu origem a um filme e a ausência de edições. No entanto, uma assinatura digital seria invalidada por qualquer tipo de edição, mesmo os 'benignos' - incluindo mudança de contraste e pequenos cortes. Além disso, não haveria como assegurar a veracidade de vídeos antigos, anteriores a uma possível implementação de assinaturas.
+++Áudio sobre eleições no Tocantins cita número falso e 'inventa' regras eleitorais
Outra solução vai na linha do 'feitiço contra o feiticeiro': usar inteligência artificial e machine learning para criar detectores de vídeos falsos. A ideia é treinar computadores para identificar sinais de adulteração que seriam invisíveis a olhos humanos. O pesquisador considera esta a melhor opção.
"Assim como o aprendizado de máquina nos possibilita meios poderosos de manipulação da mídia, ele pode resgatar e trabalhar como um discriminador (treinado), informando-nos quando o conteúdo audiovisual parece ser uma falsificação."
Almeida ressalta que, seja qual for a tecnologia empregada, será necessário o apoio de empresas de redes sociais, setores da sociedade e poder público. "A sociedade tem que criar as ferramentas para se proteger disso."