Você tem dificuldade em identificar o que é real e o que é falso nas redes sociais? Apesar de alguns conteúdos parecerem obviamente inventados, postagens geradas por inteligência artificial têm alcançado grande viralização na internet e enganado usuários. A tecnologia cria fotos, vídeos, áudios ou textos que podem ser usados para aplicar golpes, divulgar publicidades enganosas ou desinformar sobre assuntos em destaque.
O Estadão Verifica reuniu neste texto dicas sobre como identificar conteúdo gerado por IA e explicações sobre como funciona a tecnologia. Se você ainda tem dúvidas sobre postagens que encontrou nas redes, entre em contato conosco por WhatsApp: (11) 97683-7490.
O ‘boom’ dos conteúdos gerados por IA
O desenvolvimento da produção de conteúdo com inteligência artificial caminhou mais rápido do que a capacidade tecnológica de identificar quando ela é utilizada para enganar pessoas. “A desinformação através da IA se tornou tão sofisticada que hoje em dia é difícil ter total certeza do que é ou não gerado por máquinas. Há iniciativas e testes que contribuem para isso, mas há casos em que não é possível comprová-las”, explica Fernando Osório, professor e pesquisador do Centro para Inteligência Artificial (C4AI) da Universidade de São Paulo (USP).
Nos últimos meses, muitas pessoas foram enganadas ao acreditarem em imagens do Papa Francisco usando roupas de grife ou do ex-presidente dos Estados Unidos Donald Trump sendo preso por policiais em Nova York. Essas fotos foram criadas usando o Midjourney, um popular gerador de inteligência artificial. No Brasil, usuários das redes caíram em propagandas enganosas de medicamentos que usam o rosto do médico Drauzio Varella ou em vídeos que manipulam a voz e imagem do presidente Luiz Inácio Lula da Silva para inventar declarações do político.
Os conteúdos gerados com IA têm a capacidade de imitar com muita similaridade políticos, famosos, artistas e personalidades de confiança do público, sem o consentimento dessas pessoas, para aplicar golpes ou causar polêmicas e disputas políticas. “Para evitar cair em posts falsos, é importante que os usuários estejam atentos a sinais e treinem para reconhecer conteúdos gerados. É uma realidade que, cada vez mais, teremos que lidar na internet”, pontua Osório.
O que é inteligência artificial e deepfake?
A inteligência artificial é uma tecnologia que busca imitar o comportamento humano para a resolução de problemas. A possibilidade de criar máquinas inteligentes surgiu a partir dos estudos do pesquisador britânico Alan Turing publicados no artigo Computing Machinery and Intelligence, em 1950. Após seis anos, a primeira conferência sobre o tema aconteceu na Dartmouth College, nos EUA, e iniciou oficialmente a pesquisa no campo. John McCarthy, cientista da computação, é apontado como criador do termo.
A IA é aplicada há alguns anos em áreas de atendimento ao cliente, carros autônomos e tarefas como corretores ortográficos, reconhecimento facial, tradução e outros. Dentre as diversas categorias da inteligência artificial, uma das mais populares atualmente é a IA Generativa. O sistema é capaz de gerar texto, imagens, vídeos, áudios e outras mídias a partir de um treinamento e uma base de dados. Há no mercado uma infinidade de plataformas em desenvolvimento. As mais conhecidas são:
- ChatGPT: É um modelo projetado para compreender e gerar texto humano. Ele realiza tarefas como responder perguntas e escrever, com base nos padrões aprendidos a partir de grandes quantidades de dados linguísticos, como livros e textos da internet;
- Midjourney: É um serviço que opera dentro da plataforma do Discord. O programa transforma descrições textuais em imagens usando algoritmos avançados. Após polêmicas de imagens falsas, o Midjourney está disponível apenas para assinantes pagos;
- DALL-E 2: Tal como o Midjourney, o DALL-E 2 gera imagens a partir de descrições de texto ou variações de fotos correspondentes;
- Stable Diffusion: O programa também gera imagens por meio de descrições textuais;
- Synthesia: É um serviço capaz de transformar textos em vídeos e possui mais de 40 idiomas e 20 avatares diferentes gerados por computador.
Os chamados deepfakes também são criados com inteligência artificial generativa. Esse tipo de conteúdo pode trocar rostos, clonar vozes, sincronizar o movimento labial a uma faixa de áudio diferente da original, entre outras técnicas. Os vídeos gerados podem ter caráter humorístico, político ou até mesmo pornográficos e preconceituosos. Como publicou o Estadão, mulheres são as mais vulneráveis com imagens geradas em cenas sexuais.
Na criação do material, o sistema de inteligência da tecnologia precisa se alimentar de uma gama de arquivos verdadeiros, como fotos, vídeos e áudios da pessoa alvo da manipulação. “Para imitar você precisa ter acesso a fonte. Por estarem mais expostas na internet, pessoas famosas são muito utilizadas no deepfake. Quanto mais material, melhor a inteligência conseguirá reproduzir os padrões em suas criações”, explica o professor da USP.
Em agosto do ano passado, o Projeto Comprova desmentiu um vídeo que usava a técnica para inventar que o âncora do Jornal Nacional, William Bonner, havia chamado Lula e o vice-presidente Geraldo Alckmin de “bandidos”. No mês passado, o Estadão Verifica desmentiu um áudio feito com IA Generativa em que o ministro da Segurança Pública, Flávio Dino, dizia que seu objetivo é “arruinar a economia” e “aumentar o desemprego” no Brasil.
Como posso identificar conteúdos falsos?
Alguns conteúdos são tão fiéis à realidade que dificultam a detecção. Ainda assim, podemos tentar encontrar algum sinal deixado pelos algoritmos. Veja algumas dicas abaixo:
- Texto: Segundo o professor Fernando Osório, houve um grande avanço tecnológico na geração de texto e, por isso, as plataformas que identificam esses conteúdos possuem muitas falhas. Uma dica é olhar as fontes bibliográficas dos textos, que podem estar ausentes ou incorretas. Também é importante checar os dados citados, a fim de conferir se estão corretos ou se realmente existem.
- Imagens: Observe mãos, orelhas e os detalhes dos rostos. Por serem difíceis de serem gerados, podem apresentar falhas. Fique atento ao fundo das fotos, que geralmente fica desfocado nas imagens geradas. O cabelo também pode ficar estranho e estático, sem o movimento dos fios. Acessórios, como brincos, lenços e óculos podem apresentar problemas. As roupas podem não ter definição, por isso olhe costuras e estampas. Pupilas, dentes e contorno das bochechas devem ser observados, já que podem ter erros que ajudem na identificação. O site thispersondoesnotexist.com é um bom lugar para treinar a identificar imagens falsas. A cada atualização no site, o usuário consegue ver um novo rosto criado por inteligência artificial. Na foto gerada abaixo, é possível perceber problemas no fundo da imagem, na dimensão do pescoço e ombros, além de erros nas mãos, olhos e brincos.
- Vídeos: O MIT Media Lab, do Instituto de Tecnologia de Massachussetts, nos Estados Unidos, reuniu dicas de como identificar um deepfake. Segundo o manual, é importante prestar atenção aos rostos, já que as transformações são, sobretudo, faciais. Perceba se o envelhecimento da pele é semelhante ao dos cabelos e dos olhos, já que os deepfakes podem apresentar problemas nas dimensões. Repare em sombras ou brilhos em ângulos inesperados no vídeo, já que é difícil representar a iluminação natural. Os pelos faciais ou a falta deles parecem reais? E as manchas? Outra dica é ver se a movimentação dos lábios parece natural e combina exatamente com o áudio. É comum em peças de desinformação haver uma falta de sincronização entre a fala da pessoa e a boca. Você pode treinar a identificação de vídeos gerados no site disponibilizado pela instituição americana. Outra dica é seguir perfis que publicam conteúdo gerado por IA. Um exemplo brasileiro é do jornalista Bruno Sartori, que produz vídeos satíricos. No exemplo abaixo, que ficou famoso nas redes, as imagens de Lula e do ex-presidente Jair Bolsonaro (PL) são usadas para parecer que os dois cantaram a música Evidências, de Chitãozinho e Xororó.
- Marcas d’água: Um indicativo que contribui para a identificação são as marcas d’água em conteúdos gerados por IA. Alguns apps que geram imagens com inteligência artificial, como o Reface, produzem vídeos com logomarcas. “A incorporação da marca d’água é muito importante para avançarmos. Ela serve como uma sinalização de que os conteúdos são feitos por inteligência artificial. Obviamente, pessoas com conhecimento ainda podem removê-las, mas aí seria um passo a mais que, com uma futura legislação, poderia até mesmo ser crime. O Google e a Meta incorporaram isso em sua política”, explica o especialista do C4AI.
- Pesquise: Outra dica valiosa é pesquisar por reportagens e notícias na imprensa profissional que repercutem as alegações ditas no conteúdo. Declarações políticas, fatos relacionados a guerras ou polêmicas envolvendo personalidades públicas são costumeiramente publicados pela imprensa. Examine a fonte que você está consumindo o conteúdo e se questione se ela é mesmo confiável. Você também pode usar a busca reversa de imagens, uma ferramenta de pesquisa para encontrar a origem de fotos.
Como está a legislação do uso da IA no Brasil e no mundo?
As normas e legislação sobre o uso da inteligência artificial ainda são recentes no mundo. No mês passado, a União Europeia chegou a um acordo provisório para regular o uso da IA. A legislação que ainda deve ser votada estabelece que os sistemas devam ser seguros, transparentes, rastreáveis, não discriminatórios e supervisionados por pessoas, a fim de proteger os cidadãos dos riscos de utilização. Em outubro, o presidente dos Estados Unidos, Joe Biden, assinou o 1º decreto com definições sobre o tema.
Aqui no Brasil, ainda não há uma legislação específica para o uso de inteligência artificial. A discussão ocorre no Congresso Nacional por meio do Projeto de Lei 21/20, de autoria do deputado Eduardo Bismarck (PDT-CE), e o PL 2338/2020, proposto pelo senador Rodrigo Pacheco (PSD-MG). “O projeto do senador é mais completo e conta com uma previsão dos riscos da inteligência artificial e de uma autoridade para a regulamentação do uso da IA. A matéria traz algumas inovações e foi inspirada na regulamentação da União Europeia”, diz a professora Cristina Godoy, líder do grupo Direito, Ética e Inteligência Artificial da Universidade de São Paulo (USP).
Apesar de não haver uma norma específica para regular a IA, a pesquisadora explica que a legislação, como da Lei Geral de Proteção de Dados Pessoais (LGPD), a Lei de Propriedade Intelectual e o Código de Defesa de Consumidor, podem ser acionados. Segundo Godoy, é possível responsabilizar empresas e pessoas que geram golpes, desinformação e propagandas enganosas por meio da inteligência artificial. “Nestas questões, o grande problema, porém, é identificarmos os conteúdos. Muitas vezes eles não possuem origem, são anônimos e feitos por contas não identificadas. Essa é a maior dificuldade atualmente”, afirma a pesquisadora.
Se você tem dúvidas sobre a veracidade de publicações que circulam nas redes, é possível enviá-las à equipe do Estadão Verifica para verificação através do nosso WhatsApp (11) 97683-7490. O canal ainda permite que o usuário faça perguntas ao bot de verificação e tenha acesso aos conteúdos publicados.
Os comentários são exclusivos para assinantes do Estadão.