Uma pesquisa global do International Panel on the Information Environment (IPIE) revelou piora na expectativa de especialistas sobre desinformação para os próximos anos. O estudo aponta lideranças políticas, governos e donos de redes sociais como principais ameaças à qualidade do ambiente informacional mundial e põe a inteligência artificial (IA) no centro das preocupações para o futuro próximo. Analistas ouvidos pelo Estadão consideram que, apesar de a IA ter tido impacto menor do que o esperado nas eleições de 2024, instituições devem se manter em alerta para os próximos pleitos.
Mais de 400 acadêmicos de áreas como ciências da computação, engenharia de dados, ciências sociais e humanas, de 66 países, foram entrevistados pelo IPIE. Enquanto mais da metade (54%) esperava que as condições piorassem em 2023, o número subiu para 63% em 2024. Nos países em desenvolvimento, como o Brasil, 75% dos especialistas se dizem muito pessimistas em relação ao futuro do ambiente informacional. Um dos principais motivos para esse pessimismo é o uso de IA.
Proprietários de redes sociais foram apontados como principal ameaça ao ambiente informacional global por 15,5% dos especialistas no estudo do IPIE. Governos e políticos do país de origem dos entrevistados vêm na sequência, com 12,1%. Depois vêm os governos e políticos de outros países e as mídias estatais. O menor risco, segundo os entrevistados, vem de jornalistas e da imprensa, citados como ameaça por apenas 1,5% dos participantes.
O embate jurídico entre o X de Elon Musk e a Justiça brasileira é o caso mais notório a exemplificar o risco apontado pela pesquisa sobre desinformação. “O controle que essas entidades exercem sobre a distribuição de conteúdo e as políticas de moderação afeta significativamente a qualidade e a integridade da informação”, diz Phil Howard, presidente do IPIE. “O poder irrestrito dessas entidades representa um grave risco para a saúde do nosso ambiente informacional global”.
Preocupação
Para mais da metade dos participantes da pesquisa, vídeos, vozes, imagens e textos gerados artificialmente representam, neste momento, um risco. Os resultados indicam a formação crescente de um consenso entre a comunidade acadêmica global sobre o estado deteriorante do ambiente de informação devido à inteligência artificial.
O Data Privacy Brasil, que monitora o uso de IA em parceria com o Desinformante e a Aláfia Lab, registrou 26 casos durante o primeiro turno do processo eleitoral de 2024 no País. Deepfakes, chatbots e jingles criados artificialmente foram os principais tipos de IA utilizados no primeiro turno. Entre as ocorrências, foram registrados até os chamados “deepnudes”, imagens e vídeos falsos com teor sexual. Candidatas derrotadas na corrida eleitoral de São Paulo, Tabata Amaral (PSB) e Marina Helena (Novo) estavam entre as vítimas.
A lista de vídeos falsos que circularam pelas redes sociais durante o primeiro turno na capital paulista inclui um suposto abraço de reconciliação entre Pablo Marçal (PRTB) e Tabata e uma imagem de José Luiz Datena (PSDB) agredindo uma jornalista. Tudo criado artificialmente.
“É um risco permanente. Daí a importância de serem observados e contidos por medidas institucionais, especialmente a atuação da Justiça, que precisa continuar se debruçando permanentemente sobre esse tema”, avaliou Rafael Zanatta, diretor do Data Privacy Brasil. “É preciso avançar desse pleito para o próximo reavaliando o quanto as regras vigentes fazem sentido e são aderentes a uma realidade que é cambiante, que está sempre em transformação.”
O Tribunal Superior Eleitoral (TSE) proibiu as deepfakes nas eleições deste ano e tornou obrigatório o aviso sobre uso de IA em propaganda eleitoral. A Corte ainda restringiu o emprego de robôs e responsabilizou as big techs pela não remoção de conteúdos com desinformação e discursos de ódio.
Chefe de programas do IPIE, Egerton Neto considera que os próximos pleitos serão desafiadores. “O mais difícil ainda está por vir. As eleições de 2026 e 2028 ocorrerão em um ambiente informacional ainda pior. Isso coloca pressão nas instituições tanto para regular o uso de IA como também explorar formas em que a IA possa ser uma aliada, como na detecção de deepfakes”, avalia ele.
Siga o ‘Estadão’ nas redes sociais
Os comentários são exclusivos para assinantes do Estadão.