Na terça-feira, 27, o Tribunal Superior Eleitoral (TSE) anunciou as regras que estarão em vigor durante as eleições de 2024. Além de proibir o uso de inteligência artificial (IA) sem comunicação expressa nas peças de campanha, as normas também vetam o uso de deep fake na criação de conteúdo falso ou difamatório. A medida tenta conter o uso da tecnologia para retratar candidatos dizendo ou fazendo coisas que nunca ocorreram, a fim de impactar a opinião pública.
Embora seja uma tecnologia nascente no campo político, IA e deep fakes (vídeos e imagens sintetizados por algoritmos) já foram usados em processos democráticos em diferentes países - e isso parece ter inspirado a norma do tribunal, que entra em vigor no período das eleições municipais no Brasil em 2024. Entre os países que já registraram usos da tecnologia estão Argentina, EUA, Indonésia e Nigéria.
Um dos casos mais notórios do uso das ferramentas em eleições aconteceu na Argentina, onde Javier Milei venceu Sergio Massa e foi eleito presidente em outubro de 2023. Sem restrições sobre o uso de IA, o período foi marcado pela criação e manipulação indiscriminada de imagens e vídeos falsos por ambos os candidatos e seus apoiadores, especialmente para atacar os adversários.Além da criação de ilustrações geradas a partir de comandos de texto, a IA foi usada em vídeos que inseriam os rostos dos candidatos em heróis e vilões famosos do cinema, retratando os políticos em situações falsas ou colocando palavras em suas bocas.
Apoiadores de Javier Milei divulgaram um vídeo criado com deep fake em que Sérgio Massa aparecia fazendo uso de cocaína. Em uma das postagens, na plataforma X (antigo Twitter), o vídeo tem mais de 100 mil visualizações. No Instagram, uma das postagens com o conteúdo falso recebeu um aviso de “vídeo adulterado”, citando fontes de verificação de fatos. A plataforma, contudo, não impediu o acesso à publicação.
Já a campanha de Sergio Massa produziu um vídeo em deep fake no qual Milei detalha o funcionamento de um mercado de órgãos humanos com base em sua filosofia libertária.
Mortos ressuscitados com IA
Outro vídeo da campanha criado por IA trouxe a voz de Milei exaltando a ex-premiê britânica Margaret Tatcher após uma cena em que ela ordena o ataque que resultou na morte de 323 marinheiros argentinos no cruzador ARA Belgrano, em maio de 1982. Por conta do fato, Tatcher é uma figura impopular no país.
As normas do TSE não proíbem a utilização de IAs para a geração de imagens nas campanhas eleitorais desde que elas sejam devidamente sinalizadas com rótulos de identificação que indiquem o uso da tecnologia. As normas do TSE, no entanto, vetam a recriação por IA de personalidades e figuras públicas mortas para endossar ou atacar adversários. Portanto, um vídeo como o de Tatcher é vetado nas regras brasileiras.
Outro caso envolvendo uma personalidade morta aconteceu em fevereiro de 2024, na Indonésia. Por lá, o ex-general Suharto, que governou o país por 31 anos, foi “ressuscitado” via IA pelo seu partido Golkar. No vídeo de três minutos, postado nas redes sociais, o militar, morto em 2008, aparece convocando os eleitores a votarem em Prabowo Subianto, ex-general do exército que atuou em seu regime. Subianto se declarou eleito no 1º turno das eleições.
Leia Também:
Áudio sintetizado e clonagem de voz
Na leitura da resolução, a ministra Carmém Lucia mencionou a proibição do “uso (de IA) para prejudicar ou para favorecer candidatura de conteúdo sintético em formato de áudio, vídeo ou combinação de ambos, que tenha sido gerado ou manipulado digitalmente, ainda que mediante autorização, para criar, substituir ou alterar imagens ou voz de pessoa viva, falecida ou fictícia”.
O uso de áudio sintetizado por IA já foi visto em alguns países. Durante as eleições de 2023, o candidato à presidência da Nigéria Atiku Abubakar foi alvo de um clipe de áudio viral falso no qual era possível ouvir uma voz similar a sua elaborando com o diretor de seu partido um plano para fraudar as eleições.
Em janeiro de 2024, moradores do Estado de New Hampshire, nos EUA, foram surpreendidos com ligações telefônicas com uma voz do presidente Joe Biden, que pedia para os cidadãos permanecerem em casa durante as eleições primárias e deixarem para voltar apenas em novembro, nas eleições presidenciais. A voz, no entanto, havia sido clonada por IA. Em resposta, no dia 8 de fevereiro, a Comissão Federal de Comunicações dos EUA tornou ilegal o uso de vozes geradas por IA em chamadas automáticas.
Ainda nos EUA, na véspera das eleições para prefeitura de Chicago, o candidato Paul Vallas foi vítima de clonagem de voz. Uma conta no X que se passava por um veículo de notícias usou IA para clonar sua voz em um clipe de áudio no qual ele dizia tolerar a violência policial.
Em um caso mais antigo, na Ucrânia, em 2021, um vídeo publicado nas redes sociais mostrava o presidente Volodmir Zelenski dizendo aos seus soldados para baixarem as armas e se renderem à Russia.
Mais exemplos ruins
O uso das deep fakes não fica restrito aos contextos eleitorais e políticos. Em janeiro, vídeos e imagens pornográficas explícitas criadas por IA causaram preocupação à cantora pop Taylor Swift. No Brasil, a atriz Isis Valverde denunciou à polícia a divulgação de imagens falsas que a mostravam nua.
Mulheres, incluindo adolescentes, são os alvos preferidos dos infratores que criam nudes e imagens pornográficas por meio de deepfake. Em novembro de 2023, pelo menos 20 alunas do Colégio Santo Agostinho, localizado na Barra da Tijuca, Rio de Janeiro, foram vítimas de montagens de nudez por meio de IA. As imagens eram compartilhadas em grupos de mensagens entre os alunos.
Comparação com o resto do mundo
As regras do TSE que proíbem o uso de deep fake na criação de conteúdo falso e difamatório durante as eleições são mais duras do que as normas estabelecidas pela União Europeia na Lei de IA, que ainda será votada pelos 27 países da União. No acordo, os chatbots e os softwares que criam imagens manipuladas, como os “deep fakes”, teriam que deixar claro que o que as pessoas estavam vendo era gerado pela IA.
Na Conferência de Segurança de Munique, que aconteceu no dia 16 de fevereiro, as próprias empresas de tecnologia assinaram um acordo de compromisso voluntário para ajudar a evitar que conteúdo enganoso de IA interfira nas votações em 2024, incluindo Google, Meta, Microsoft, OpenAI, Tiktok e X.
Em janeiro, a OpenAI, desenvolvedora do ChatGPT, afirmou que está trabalhando para impedir a criação de chatbots que fingem ser pessoas ou instituições reais. A Meta, proprietária do Facebook e do Instagram, adicioná rótulos para ajudar os usuários a identificar materiais falsos e criados por IA. O Google também se comprometeu a limitar consultas relacionadas às eleições em seu chatbot Gemini.