Uso de inteligência artificial para cometer crimes pode provocar aumento da pena; entenda projeto

Pela proposta, prática de deepfake em casos de difamação, calúnia ou injúria pode aumentar em até cinco vezes a punição prevista no Código Penal

PUBLICIDADE

Foto do author Julia Camim

Com o objetivo de regular o uso da inteligência artificial (IA) na produção de alterações digitais imperceptíveis de pessoas em fotos, áudios ou vídeos, dois projetos de lei agravam as penas dos crimes contra a honra, de falsa identidade e de propaganda enganosa cometidos com o uso da tecnologia. As propostas, de autoria do senador Chico Rodrigues (PSB-RR), visam punir os produtores de deepfake, como é conhecida essa forma de manipulação, e também os que compartilham o conteúdo.

PUBLICIDADE

O PL 146/2024 busca aumentar a pena para os crimes que utilizam IA “para praticar fatos moralmente reprováveis, tais como estelionato, pornografia, falsidade ideológica e ofensas à honra ou a imagem de pessoas, em especial celebridades ou pessoas públicas”. Além disso, ele ressalta a capacidade de propagação das informações falsas que podem ludibriar e “prejudicar milhares de pessoas inocentes”.

Pela proposta, a prática de deepfake em casos de difamação, calúnia ou injúria pode aumentar em até cinco vezes a pena prevista no Código Penal e triplicá-la em caso de compartilhamento. Já para os casos de identidade falsa a pena será de reclusão de um a cinco anos e multa.

Imagem falsa do papa Francisco que viralizou foi criada com inteligência artificial. Foto: Reprodução

O segundo projeto de Rodrigues, PL 145/2024, regulamenta o uso da IA em casos publicitários. A proposta proíbe a publicação de propagandas em que vozes ou imagens sejam manipuladas para alterar a percepção do consumidor quanto ao produto ou serviço. Segundo o documento, a utilização da imagem ou da voz de pessoas conhecidas serve para que os infratores aproveitem-se “da reputação ou do carisma da pessoa para comercializar um produto ou serviço”.

Publicidade

Outra proposta, elaborada pela Comissão Temporária Interna sobre Inteligência Artificial (CTIA) do Senado e apresentada pelo presidente da Casa, Rodrigo Pacheco (PSD-MG), disciplina o uso de inteligência artificial em defesa das pessoas e do regime democrático.

Casos de deepfake

O uso da Inteligência Artificial (IA) nas eleições argentinas acendeu um alerta sobre o mau uso das tecnologias em campanhas por cargos públicos nos países. Os apoiadores do presidente eleito, Javier Milei, usaram a chamada deepfake, e colocaram o rosto do oponente Sergio Massa em um homem que cheirava cocaína.

No Brasil, o presidente do Tribunal Superior Eleitoral (TSE), Alexandre de Moraes, se mostrou preocupado com o uso de inteligência artificial para a disseminação de desinformação nas eleições municipais, e cobrou do Legislativo uma regulamentação da tecnologia

Em janeiro, a cantora Taylor Swift teve imagens sexualmente explícitas, geradas com IA, divulgadas nas redes sociais. Uma das publicações teve 47 milhões de visualizações no X antes de ser removida. Tiago Leifert, Fátima Bernardes também foram vítimas.

Publicidade

Comentários

Os comentários são exclusivos para assinantes do Estadão.