PUBLICIDADE

Como a inteligência artificial tem ajudado a PF em investigações de abuso sexual infantil? Entenda

Ferramenta desenvolvida por pesquisadores da UFMG tem aumentado a agilidade e precisão da análise de material apreendido em operações. Organização recebeu 70 mil denúncias de exploração sexual em 2023

PUBLICIDADE

Por Aline Reskalla
Atualização:

Uma ferramenta de inteligência artificial criada por pesquisadores da Universidade Federal de Minas Gerais (UFMG) tem ajudado a Polícia Federal a analisar com mais rapidez e precisão imagens de abuso sexual infantil apreendidas em operações no Estado. Com a tecnologia, a análise de milhares de fotografias, vídeos e desenhos que antes demandava semanas de trabalho dos peritos agora pode ser feita em algumas horas.

PUBLICIDADE

No Brasil, o Estatuto da Criança e do Adolescente (ECA) prevê como crime vender ou expor fotos e vídeos com cenas de sexo explícito envolvendo crianças e adolescentes. Também é crime a divulgação dessas imagens por qualquer meio e a posse de arquivos do tipo.

O modelo de inteligência artificial, inicialmente apresentado em 2022, passou por atualizações que vão permitir, a partir deste mês de maio, sua utilização por outras unidades da Polícia Federal fora de Minas Gerais, disse ao Estadão João Macedo, doutorando da UFMG que ajudou a desenvolver o sistema e que também é perito da Polícia Federal.

Macedo explica que um dos diferenciais dessa nova ferramenta está exatamente nessa possibilidade de integração com sistemas periciais da PF, permitindo análise de grandes volumes de dados de forma rápida e precisa. “O objetivo principal desse software é fazer perícia nos materiais apreendidos. Quando suspeitos, por motivo de denúncia ou investigação, sofrem um mandado de busca, e os materiais são apreendidos, os peritos analisam às vezes 30 mil imagens. São 5 mil, 10 mil vídeos, é tarefa demorada, que agora pode ser feita em poucas horas”, disse Macedo.

Ele explica ainda que o ato criminoso, por exemplo, pode estar acontecendo aos 10 minutos de um vídeo de 30 minutos de duração, e o software já mostra direto a parte suspeita.

Quando a máquina faz essa análise também existe um benefício para a saúde mental dos peritos, diz Macedo, pois eles lidam com imagens “muito impactantes” . “Em termos de saúde mental, diminui o tempo de contato, melhoram as condições de trabalho. Muitos peritos pedem para se afastar por não suportarem o contato frequente com esse tipo de material.”

Policial cumpre mandado em ação contra abuso sexual infantil Foto: Polícia Federal

Segundo ele, a nova ferramenta não só acelera o processo de análise, mas também garante uma classificação mais precisa do conteúdo. João Macedo explicou que o modelo é capaz de identificar conteúdos explícitos e também imagens que sugerem suspeita de abuso ou que contenham elementos associados a crianças e adolescentes em situações íntimas.

Publicidade

“Isso permite uma triagem mais rápida e certeira do material, garantindo que as autoridades ajam de forma mais direcionada e eficaz.”

  • A ferramenta classifica as imagens em seis categorias: abuso sexual infantil, suspeita de abuso, pornografia, imagens contendo pessoas sem nenhum tipo de pornografia, imagens de desenhos (cartoon) e outros tipos.

O primeiro modelo desenvolvido pela equipe, que ficou pronto em 2022, focava principalmente na detecção de pornografia infantil - termo que, inclusive, não é mais indicado (leia mais abaixo). Era baseado em uma rede neural e analisava as imagens em busca de conteúdo pornográfico. A partir disso, indicava a possível idade dos indivíduos presentes nas imagens.

“No entanto, ele tinha limitações, pois não avaliava se realmente havia abuso nas imagens e vídeos identificados, além de ser mais lento e exigir recursos computacionais significativos”, diz Macedo.

Esse tipo de ferramenta tem importância grande na era da Inteligência Artificial generativa, que inclusive tem sido usada para criar novas imagens de abuso sexual infantil.

“À medida que essa ferramenta avançada é divulgada e utilizada em todo o País, há esperança de que o combate ao abuso sexual infantil online seja fortalecido e que mais vítimas sejam protegidas e justiça seja feita”, acredita o pesquisador da UFMG.

Também participaram da pesquisa a doutoranda Camila Laranjeira, que, assim como Macedo, são do laboratório Pattern Recognition and Earth Observation (Patreo), vinculado ao DCC-UFMG, além dos professores Sandra Avila, do Instituto de Computação da Universidade Estadual de Campinas (Unicamp), e Jefersson Alex dos Santos, do DCC-UFMG.

Publicidade

Recorde de denúncias

No ano passado, as denúncias de imagens de abuso e exploração sexual bateram recorde, segundo a Safernet. A organização informou ter recebido 71.867 novas denúncias, o maior volume ao longo de 18 anos de funcionamento da Central Nacional de Denúncias de Crimes Cibernéticos. Em relação a 2022, o aumento foi de 77%.

Na avaliação de Thiago Tavares, fundador e diretor-presidente da Safernet, três fatores pesaram no aumento de denúncias de imagens de abuso e exploração sexual infantil: “Uma combinação de fatores explicam o aumento: 1) a introdução da IA generativa para a criação desse tipo de conteúdo; 2) a proliferação da venda de packs com imagens de nudez e sexo autogeradas por adolescentes; 3) demissões em massa anunciadas pelas big techs, que atingiram as equipes de segurança, integridade e moderação de conteúdo de algumas plataformas”.

A marca histórica anterior era de 2008, quando a Safernet havia recebido 56.115 denúncias. O ano marcou o auge da disputa jurídica do Ministério Público Federal com a Google em virtude dos crimes reportados no Orkut e foi o ano da assinatura do acordo judicial que obrigou a companhia a entregar dados para a investigação de crimes.

Termo ‘pornografia infantil’ deixa de ser usado

Entidades e autoridades mundiais iniciaram um movimento para que a expressão “pornografia infantil” seja substituída por “imagens de abuso e exploração sexual infantil” ou “imagens de abusos contra crianças e adolescentes”.

De acordo com o Safernet, a imagem de nudez e sexo envolvendo uma criança ou adolescente (por lei, pessoas de 0 a 18 anos incompletos), por definição, não é consensual. Logo, não se trata de pornografia, mas de imagens de crianças e adolescentes sendo sexualmente abusadas e exploradas. A Interpol, por exemplo, fez campanha contra o uso da expressão “pornografia infantil”.

O uso da expressão pornografia pressupõe também o consumo passivo do conteúdo, o que diminui a percepção da gravidade da posse e distribuição dessas imagens. A Safernet adverte que quem consome imagens de violência sexual infantil é cúmplice do abuso e da exploração sexual infantil.

Como denunciar

É possível realizar denúncias de páginas que contenham imagens de Abuso e Exploração Sexual de crianças e adolescentes na Central Nacional de Denúncias da Safernet Brasil. O processo é 100% anônimo.

Publicidade