TREs julgam 17 ações sobre IA e deepfake; tema preocupa menos que antes


Especialistas ponderam que esta é a primeira eleição realizada em meio ao uso massivo de ferramentas de IA, mas avaliam que resolução editada pelo TSE pode ter sido eficaz para inibir uso ilegal de mecanismo

Por Lavínia Kaucz

BRASÍLIA - Os Tribunais Regionais Eleitorais (TREs), que representam a segunda instância da Justiça Eleitoral, julgaram pelo menos 17 ações envolvendo uso irregular de inteligência artificial (IA) ou deepfakes na campanha eleitoral neste ano, de acordo com levantamento feito pelo Estadão/Broadcast com base na ferramenta de pesquisa de jurisprudência dos tribunais. Desses casos, em 12 os desembargadores entenderam que não houve uso ilícito das ferramentas e não determinaram a remoção do conteúdo.

O tema, que causava preocupação e era tratado como prioridade pela presidente do Tribunal Superior Eleitoral (TSE), Cármen Lúcia, foi relegado a segundo plano na Corte, que agora se preocupa sobretudo com a violência política e possíveis dificuldades de acesso dos eleitores às urnas. “Há seis meses, todo discurso era que o problema dessa eleição seria a inteligência artificial. Não foi”, afirmou a ministra no programa Roda Viva, da TV Cultura no início da semana.

Inteligência artificial é problema que até agora não causou transtornos à Justiça Eleitoral Foto: ZayWin - stock.adobe.com
continua após a publicidade

Em fevereiro, o TSE aprovou resolução para as eleições de 2024 que estabelece a vedação absoluta ao uso de deepfake e a exigência de rótulos de identificação de conteúdo gerado por inteligência artificial.

Especialistas ouvidos pela reportagem ponderam que esta será a primeira eleição realizada em meio ao uso massivo de ferramentas de IA, e avaliam que a resolução editada pelo TSE, que estabelece a cassação de candidatos que publicarem deepfakes, pode ter sido eficaz para inibir esse comportamento.

continua após a publicidade

“Na prática tivemos poucos problemas. O que é difícil avaliar é qual a relação de causa e efeito”, observa o advogado eleitoral Fernando Neisser, membro da coordenação acadêmica da Academia Brasileira de Direito Eleitoral e Político (Abradep). “Ou a IA não geraria todo esse problema, ou possivelmente geraria, mas a resposta firme do TSE constrangeu pessoas que pudessem ter se valido desses instrumentos. Pode ser reflexo de uma política preventiva bem feita”, complementa.

“A sinalização que a Justiça Eleitoral deu é que qualquer tipo de violação às leis não seria absolutamente tolerada, e isso já serve para diminuir o efeito dessas ferramentas”, avalia Miguel Novaes, do Ferraro, Rocha e Novaes Advogados.

Novaes também observa que as campanhas municipais são mais baratas e com um perfil mais centralizado na pessoa do candidato e na situação dos bairros. “Em campanhas com menor visibilidade, começou-se a compreender que não seria o melhor caminho [utilizar IA]”.

continua após a publicidade

Carla Rodrigues, uma das responsáveis pelo projeto Observatório de IA nas Eleições, do Data Privacy, alerta que ainda há uma dificuldade de identificar esses conteúdos, já que muitos deles não são rotulados - em desconformidade com a lei eleitoral. “Se torna muito difícil para o juiz identificar o que é um vídeo manipulado de forma ética ou não ética sem esse tipo de indicação. Não existe denominação do que é deepfake. Como eles vão julgar com base no que eles não sabem o que é?”, questiona.

IA é vedada se for usada para enganar o eleitor

Tribunais Regionais Eleitorais têm analisado a sofisticação da manipulação do conteúdo ao decidir se há uso irregular de inteligência artificial (IA) ou deepfakes na propaganda eleitoral de candidatos. O entendimento, que tem se consolidado até agora, é que a imitação deve ter o potencial de enganar o eleitor. Também há casos em que os tribunais não viram provas suficientes de que o conteúdo foi gerado por IA. O Broadcast Político identificou 17 processos julgados sobre o tema neste ano, e em 12 deles os desembargadores decidiram manter o conteúdo.

continua após a publicidade

Em um caso de Gravataí (RS), ao analisar uma montagem que associa os candidatos a prefeito e vice-prefeito aos personagens Patati e Patatá, o TRE-RS definiu que “não configura deepfake a montagem tosca, sem o uso de técnica sofisticada de manipulação de mídia e sem a utilização de inteligência artificial”.

TRE do Rio Grande do Sul considerou que montagem "tosca" não contém "técnica sofisticada de manipulação de mídia", nem pode ser considerada como caso de utilização de inteligência artificial  Foto: Reprodução / Estadão

Em São Paulo, o TRE-SP negou recurso do prefeito e candidato à reeleição Ricardo Nunes (MDB) no caso em que acusou Tabata Amaral (PSB) de usar deepfake em vídeo que coloca o rosto Nunes no personagem Ken, do filme “Barbie”.

continua após a publicidade

Em Camboriú (SC), o PSD acionou o TRE-SC devido a uma imagem veiculada em grupo de WhatsApp que associa Leonel Pavan, candidato a prefeito na cidade, ao crime de assédio sexual. Trata-se de um print que, segundo o PSD, simula uma notícia com o título “Pavan comete assédio sexual mais uma vez”. O tribunal negou a ação por entender que a mensagem é de autoria desconhecida e que não há provas de manipulação. “Não é dado afastar, na cognição nebulosa que se alcança, sua procedência derivativa da imprensa local”, disse o relator, José Minatto, em seu voto.

Em Itaberaba (BA), o candidato a prefeito João Filho (PSD) foi acusado de alterar a fala do presidente Luiz Inácio Lula da Silva em um vídeo publicado nas redes sociais para que Lula pedisse votos para ele. O TRE-BA concluiu que a acusação se baseia em uma aparência de anormalidade da voz, “sem qualquer fundamento técnico”, e manteve a publicação.

continua após a publicidade

Em Uberlândia (MG), por outro lado, o TRE-MG considerou que é deepfake uma imagem manipulada digitalmente do candidato Gustavo Galassi (Republicanos) abraçando seu avô Virgílio Galassi, já falecido. “A questão tratada não é o fato de Gustavo fazer homenagem a seu avô ou o fato de o conteúdo ser ou não propaganda eleitoral. A questão é se, mesmo contendo o destaque que o conteúdo foi criado por inteligência artificial, pode haver deepfake para favorecer candidatura ou para prejudicar”, disse a relatora, Flávia Birchal De Moura, em seu voto.

Outros casos discutiram, ainda, o uso de ferramentas de conversão de texto para voz ou de simulação gráfica de diálogos. Apesar de o deepfake ser proibido, o uso de IA quando não há manipulação das informações é permitido, desde que seja identificado por aviso explícito de que o conteúdo foi gerado e por qual tecnologia.

“Há uma dificuldade em afirmar que a peça publicitária foi feita utilizando IA, e não outra ferramenta gráfica lícita”, diz o advogado Fernando Neisser, membro da coordenação acadêmica da Academia Brasileira de Direito Eleitoral e Político (Abradep). O advogado avalia que “alguns usos mais simples, que não são para enganar as pessoas”, poderiam até dispensar o uso de etiqueta.

Carla Rodrigues, uma das responsáveis pelo projeto Observatório de IA nas Eleições, do Data Privacy, também aponta que há uma falta de definição do que é conteúdo sintético e o que não é. “Pode usar IA desde que seja rotulado como IA, mas pode utilizar IA e fazer qualquer manipulação? Se a gente não tem uma definição própria dos conceitos, fica muito difícil para o juiz ter conhecimento dessas ferramentas, cada vez mais sofisticadas”, afirma.

Para Miguel Novaes, do Ferraro, Rocha e Novaes Advogados, “ainda estão muito esparsas as decisões e o entendimento sobre o tema” no Brasil. O papel do TSE é unificar o entendimento de temas com tratamento divergente na Justiça, mas a Corte ainda não julgou nenhum processo sobre uso irregular de IA e deepfake. Para chegar até a instância máxima da Justiça Eleitoral, é preciso antes recorrer na primeira e na segunda instância.

BRASÍLIA - Os Tribunais Regionais Eleitorais (TREs), que representam a segunda instância da Justiça Eleitoral, julgaram pelo menos 17 ações envolvendo uso irregular de inteligência artificial (IA) ou deepfakes na campanha eleitoral neste ano, de acordo com levantamento feito pelo Estadão/Broadcast com base na ferramenta de pesquisa de jurisprudência dos tribunais. Desses casos, em 12 os desembargadores entenderam que não houve uso ilícito das ferramentas e não determinaram a remoção do conteúdo.

O tema, que causava preocupação e era tratado como prioridade pela presidente do Tribunal Superior Eleitoral (TSE), Cármen Lúcia, foi relegado a segundo plano na Corte, que agora se preocupa sobretudo com a violência política e possíveis dificuldades de acesso dos eleitores às urnas. “Há seis meses, todo discurso era que o problema dessa eleição seria a inteligência artificial. Não foi”, afirmou a ministra no programa Roda Viva, da TV Cultura no início da semana.

Inteligência artificial é problema que até agora não causou transtornos à Justiça Eleitoral Foto: ZayWin - stock.adobe.com

Em fevereiro, o TSE aprovou resolução para as eleições de 2024 que estabelece a vedação absoluta ao uso de deepfake e a exigência de rótulos de identificação de conteúdo gerado por inteligência artificial.

Especialistas ouvidos pela reportagem ponderam que esta será a primeira eleição realizada em meio ao uso massivo de ferramentas de IA, e avaliam que a resolução editada pelo TSE, que estabelece a cassação de candidatos que publicarem deepfakes, pode ter sido eficaz para inibir esse comportamento.

“Na prática tivemos poucos problemas. O que é difícil avaliar é qual a relação de causa e efeito”, observa o advogado eleitoral Fernando Neisser, membro da coordenação acadêmica da Academia Brasileira de Direito Eleitoral e Político (Abradep). “Ou a IA não geraria todo esse problema, ou possivelmente geraria, mas a resposta firme do TSE constrangeu pessoas que pudessem ter se valido desses instrumentos. Pode ser reflexo de uma política preventiva bem feita”, complementa.

“A sinalização que a Justiça Eleitoral deu é que qualquer tipo de violação às leis não seria absolutamente tolerada, e isso já serve para diminuir o efeito dessas ferramentas”, avalia Miguel Novaes, do Ferraro, Rocha e Novaes Advogados.

Novaes também observa que as campanhas municipais são mais baratas e com um perfil mais centralizado na pessoa do candidato e na situação dos bairros. “Em campanhas com menor visibilidade, começou-se a compreender que não seria o melhor caminho [utilizar IA]”.

Carla Rodrigues, uma das responsáveis pelo projeto Observatório de IA nas Eleições, do Data Privacy, alerta que ainda há uma dificuldade de identificar esses conteúdos, já que muitos deles não são rotulados - em desconformidade com a lei eleitoral. “Se torna muito difícil para o juiz identificar o que é um vídeo manipulado de forma ética ou não ética sem esse tipo de indicação. Não existe denominação do que é deepfake. Como eles vão julgar com base no que eles não sabem o que é?”, questiona.

IA é vedada se for usada para enganar o eleitor

Tribunais Regionais Eleitorais têm analisado a sofisticação da manipulação do conteúdo ao decidir se há uso irregular de inteligência artificial (IA) ou deepfakes na propaganda eleitoral de candidatos. O entendimento, que tem se consolidado até agora, é que a imitação deve ter o potencial de enganar o eleitor. Também há casos em que os tribunais não viram provas suficientes de que o conteúdo foi gerado por IA. O Broadcast Político identificou 17 processos julgados sobre o tema neste ano, e em 12 deles os desembargadores decidiram manter o conteúdo.

Em um caso de Gravataí (RS), ao analisar uma montagem que associa os candidatos a prefeito e vice-prefeito aos personagens Patati e Patatá, o TRE-RS definiu que “não configura deepfake a montagem tosca, sem o uso de técnica sofisticada de manipulação de mídia e sem a utilização de inteligência artificial”.

TRE do Rio Grande do Sul considerou que montagem "tosca" não contém "técnica sofisticada de manipulação de mídia", nem pode ser considerada como caso de utilização de inteligência artificial  Foto: Reprodução / Estadão

Em São Paulo, o TRE-SP negou recurso do prefeito e candidato à reeleição Ricardo Nunes (MDB) no caso em que acusou Tabata Amaral (PSB) de usar deepfake em vídeo que coloca o rosto Nunes no personagem Ken, do filme “Barbie”.

Em Camboriú (SC), o PSD acionou o TRE-SC devido a uma imagem veiculada em grupo de WhatsApp que associa Leonel Pavan, candidato a prefeito na cidade, ao crime de assédio sexual. Trata-se de um print que, segundo o PSD, simula uma notícia com o título “Pavan comete assédio sexual mais uma vez”. O tribunal negou a ação por entender que a mensagem é de autoria desconhecida e que não há provas de manipulação. “Não é dado afastar, na cognição nebulosa que se alcança, sua procedência derivativa da imprensa local”, disse o relator, José Minatto, em seu voto.

Em Itaberaba (BA), o candidato a prefeito João Filho (PSD) foi acusado de alterar a fala do presidente Luiz Inácio Lula da Silva em um vídeo publicado nas redes sociais para que Lula pedisse votos para ele. O TRE-BA concluiu que a acusação se baseia em uma aparência de anormalidade da voz, “sem qualquer fundamento técnico”, e manteve a publicação.

Em Uberlândia (MG), por outro lado, o TRE-MG considerou que é deepfake uma imagem manipulada digitalmente do candidato Gustavo Galassi (Republicanos) abraçando seu avô Virgílio Galassi, já falecido. “A questão tratada não é o fato de Gustavo fazer homenagem a seu avô ou o fato de o conteúdo ser ou não propaganda eleitoral. A questão é se, mesmo contendo o destaque que o conteúdo foi criado por inteligência artificial, pode haver deepfake para favorecer candidatura ou para prejudicar”, disse a relatora, Flávia Birchal De Moura, em seu voto.

Outros casos discutiram, ainda, o uso de ferramentas de conversão de texto para voz ou de simulação gráfica de diálogos. Apesar de o deepfake ser proibido, o uso de IA quando não há manipulação das informações é permitido, desde que seja identificado por aviso explícito de que o conteúdo foi gerado e por qual tecnologia.

“Há uma dificuldade em afirmar que a peça publicitária foi feita utilizando IA, e não outra ferramenta gráfica lícita”, diz o advogado Fernando Neisser, membro da coordenação acadêmica da Academia Brasileira de Direito Eleitoral e Político (Abradep). O advogado avalia que “alguns usos mais simples, que não são para enganar as pessoas”, poderiam até dispensar o uso de etiqueta.

Carla Rodrigues, uma das responsáveis pelo projeto Observatório de IA nas Eleições, do Data Privacy, também aponta que há uma falta de definição do que é conteúdo sintético e o que não é. “Pode usar IA desde que seja rotulado como IA, mas pode utilizar IA e fazer qualquer manipulação? Se a gente não tem uma definição própria dos conceitos, fica muito difícil para o juiz ter conhecimento dessas ferramentas, cada vez mais sofisticadas”, afirma.

Para Miguel Novaes, do Ferraro, Rocha e Novaes Advogados, “ainda estão muito esparsas as decisões e o entendimento sobre o tema” no Brasil. O papel do TSE é unificar o entendimento de temas com tratamento divergente na Justiça, mas a Corte ainda não julgou nenhum processo sobre uso irregular de IA e deepfake. Para chegar até a instância máxima da Justiça Eleitoral, é preciso antes recorrer na primeira e na segunda instância.

BRASÍLIA - Os Tribunais Regionais Eleitorais (TREs), que representam a segunda instância da Justiça Eleitoral, julgaram pelo menos 17 ações envolvendo uso irregular de inteligência artificial (IA) ou deepfakes na campanha eleitoral neste ano, de acordo com levantamento feito pelo Estadão/Broadcast com base na ferramenta de pesquisa de jurisprudência dos tribunais. Desses casos, em 12 os desembargadores entenderam que não houve uso ilícito das ferramentas e não determinaram a remoção do conteúdo.

O tema, que causava preocupação e era tratado como prioridade pela presidente do Tribunal Superior Eleitoral (TSE), Cármen Lúcia, foi relegado a segundo plano na Corte, que agora se preocupa sobretudo com a violência política e possíveis dificuldades de acesso dos eleitores às urnas. “Há seis meses, todo discurso era que o problema dessa eleição seria a inteligência artificial. Não foi”, afirmou a ministra no programa Roda Viva, da TV Cultura no início da semana.

Inteligência artificial é problema que até agora não causou transtornos à Justiça Eleitoral Foto: ZayWin - stock.adobe.com

Em fevereiro, o TSE aprovou resolução para as eleições de 2024 que estabelece a vedação absoluta ao uso de deepfake e a exigência de rótulos de identificação de conteúdo gerado por inteligência artificial.

Especialistas ouvidos pela reportagem ponderam que esta será a primeira eleição realizada em meio ao uso massivo de ferramentas de IA, e avaliam que a resolução editada pelo TSE, que estabelece a cassação de candidatos que publicarem deepfakes, pode ter sido eficaz para inibir esse comportamento.

“Na prática tivemos poucos problemas. O que é difícil avaliar é qual a relação de causa e efeito”, observa o advogado eleitoral Fernando Neisser, membro da coordenação acadêmica da Academia Brasileira de Direito Eleitoral e Político (Abradep). “Ou a IA não geraria todo esse problema, ou possivelmente geraria, mas a resposta firme do TSE constrangeu pessoas que pudessem ter se valido desses instrumentos. Pode ser reflexo de uma política preventiva bem feita”, complementa.

“A sinalização que a Justiça Eleitoral deu é que qualquer tipo de violação às leis não seria absolutamente tolerada, e isso já serve para diminuir o efeito dessas ferramentas”, avalia Miguel Novaes, do Ferraro, Rocha e Novaes Advogados.

Novaes também observa que as campanhas municipais são mais baratas e com um perfil mais centralizado na pessoa do candidato e na situação dos bairros. “Em campanhas com menor visibilidade, começou-se a compreender que não seria o melhor caminho [utilizar IA]”.

Carla Rodrigues, uma das responsáveis pelo projeto Observatório de IA nas Eleições, do Data Privacy, alerta que ainda há uma dificuldade de identificar esses conteúdos, já que muitos deles não são rotulados - em desconformidade com a lei eleitoral. “Se torna muito difícil para o juiz identificar o que é um vídeo manipulado de forma ética ou não ética sem esse tipo de indicação. Não existe denominação do que é deepfake. Como eles vão julgar com base no que eles não sabem o que é?”, questiona.

IA é vedada se for usada para enganar o eleitor

Tribunais Regionais Eleitorais têm analisado a sofisticação da manipulação do conteúdo ao decidir se há uso irregular de inteligência artificial (IA) ou deepfakes na propaganda eleitoral de candidatos. O entendimento, que tem se consolidado até agora, é que a imitação deve ter o potencial de enganar o eleitor. Também há casos em que os tribunais não viram provas suficientes de que o conteúdo foi gerado por IA. O Broadcast Político identificou 17 processos julgados sobre o tema neste ano, e em 12 deles os desembargadores decidiram manter o conteúdo.

Em um caso de Gravataí (RS), ao analisar uma montagem que associa os candidatos a prefeito e vice-prefeito aos personagens Patati e Patatá, o TRE-RS definiu que “não configura deepfake a montagem tosca, sem o uso de técnica sofisticada de manipulação de mídia e sem a utilização de inteligência artificial”.

TRE do Rio Grande do Sul considerou que montagem "tosca" não contém "técnica sofisticada de manipulação de mídia", nem pode ser considerada como caso de utilização de inteligência artificial  Foto: Reprodução / Estadão

Em São Paulo, o TRE-SP negou recurso do prefeito e candidato à reeleição Ricardo Nunes (MDB) no caso em que acusou Tabata Amaral (PSB) de usar deepfake em vídeo que coloca o rosto Nunes no personagem Ken, do filme “Barbie”.

Em Camboriú (SC), o PSD acionou o TRE-SC devido a uma imagem veiculada em grupo de WhatsApp que associa Leonel Pavan, candidato a prefeito na cidade, ao crime de assédio sexual. Trata-se de um print que, segundo o PSD, simula uma notícia com o título “Pavan comete assédio sexual mais uma vez”. O tribunal negou a ação por entender que a mensagem é de autoria desconhecida e que não há provas de manipulação. “Não é dado afastar, na cognição nebulosa que se alcança, sua procedência derivativa da imprensa local”, disse o relator, José Minatto, em seu voto.

Em Itaberaba (BA), o candidato a prefeito João Filho (PSD) foi acusado de alterar a fala do presidente Luiz Inácio Lula da Silva em um vídeo publicado nas redes sociais para que Lula pedisse votos para ele. O TRE-BA concluiu que a acusação se baseia em uma aparência de anormalidade da voz, “sem qualquer fundamento técnico”, e manteve a publicação.

Em Uberlândia (MG), por outro lado, o TRE-MG considerou que é deepfake uma imagem manipulada digitalmente do candidato Gustavo Galassi (Republicanos) abraçando seu avô Virgílio Galassi, já falecido. “A questão tratada não é o fato de Gustavo fazer homenagem a seu avô ou o fato de o conteúdo ser ou não propaganda eleitoral. A questão é se, mesmo contendo o destaque que o conteúdo foi criado por inteligência artificial, pode haver deepfake para favorecer candidatura ou para prejudicar”, disse a relatora, Flávia Birchal De Moura, em seu voto.

Outros casos discutiram, ainda, o uso de ferramentas de conversão de texto para voz ou de simulação gráfica de diálogos. Apesar de o deepfake ser proibido, o uso de IA quando não há manipulação das informações é permitido, desde que seja identificado por aviso explícito de que o conteúdo foi gerado e por qual tecnologia.

“Há uma dificuldade em afirmar que a peça publicitária foi feita utilizando IA, e não outra ferramenta gráfica lícita”, diz o advogado Fernando Neisser, membro da coordenação acadêmica da Academia Brasileira de Direito Eleitoral e Político (Abradep). O advogado avalia que “alguns usos mais simples, que não são para enganar as pessoas”, poderiam até dispensar o uso de etiqueta.

Carla Rodrigues, uma das responsáveis pelo projeto Observatório de IA nas Eleições, do Data Privacy, também aponta que há uma falta de definição do que é conteúdo sintético e o que não é. “Pode usar IA desde que seja rotulado como IA, mas pode utilizar IA e fazer qualquer manipulação? Se a gente não tem uma definição própria dos conceitos, fica muito difícil para o juiz ter conhecimento dessas ferramentas, cada vez mais sofisticadas”, afirma.

Para Miguel Novaes, do Ferraro, Rocha e Novaes Advogados, “ainda estão muito esparsas as decisões e o entendimento sobre o tema” no Brasil. O papel do TSE é unificar o entendimento de temas com tratamento divergente na Justiça, mas a Corte ainda não julgou nenhum processo sobre uso irregular de IA e deepfake. Para chegar até a instância máxima da Justiça Eleitoral, é preciso antes recorrer na primeira e na segunda instância.

BRASÍLIA - Os Tribunais Regionais Eleitorais (TREs), que representam a segunda instância da Justiça Eleitoral, julgaram pelo menos 17 ações envolvendo uso irregular de inteligência artificial (IA) ou deepfakes na campanha eleitoral neste ano, de acordo com levantamento feito pelo Estadão/Broadcast com base na ferramenta de pesquisa de jurisprudência dos tribunais. Desses casos, em 12 os desembargadores entenderam que não houve uso ilícito das ferramentas e não determinaram a remoção do conteúdo.

O tema, que causava preocupação e era tratado como prioridade pela presidente do Tribunal Superior Eleitoral (TSE), Cármen Lúcia, foi relegado a segundo plano na Corte, que agora se preocupa sobretudo com a violência política e possíveis dificuldades de acesso dos eleitores às urnas. “Há seis meses, todo discurso era que o problema dessa eleição seria a inteligência artificial. Não foi”, afirmou a ministra no programa Roda Viva, da TV Cultura no início da semana.

Inteligência artificial é problema que até agora não causou transtornos à Justiça Eleitoral Foto: ZayWin - stock.adobe.com

Em fevereiro, o TSE aprovou resolução para as eleições de 2024 que estabelece a vedação absoluta ao uso de deepfake e a exigência de rótulos de identificação de conteúdo gerado por inteligência artificial.

Especialistas ouvidos pela reportagem ponderam que esta será a primeira eleição realizada em meio ao uso massivo de ferramentas de IA, e avaliam que a resolução editada pelo TSE, que estabelece a cassação de candidatos que publicarem deepfakes, pode ter sido eficaz para inibir esse comportamento.

“Na prática tivemos poucos problemas. O que é difícil avaliar é qual a relação de causa e efeito”, observa o advogado eleitoral Fernando Neisser, membro da coordenação acadêmica da Academia Brasileira de Direito Eleitoral e Político (Abradep). “Ou a IA não geraria todo esse problema, ou possivelmente geraria, mas a resposta firme do TSE constrangeu pessoas que pudessem ter se valido desses instrumentos. Pode ser reflexo de uma política preventiva bem feita”, complementa.

“A sinalização que a Justiça Eleitoral deu é que qualquer tipo de violação às leis não seria absolutamente tolerada, e isso já serve para diminuir o efeito dessas ferramentas”, avalia Miguel Novaes, do Ferraro, Rocha e Novaes Advogados.

Novaes também observa que as campanhas municipais são mais baratas e com um perfil mais centralizado na pessoa do candidato e na situação dos bairros. “Em campanhas com menor visibilidade, começou-se a compreender que não seria o melhor caminho [utilizar IA]”.

Carla Rodrigues, uma das responsáveis pelo projeto Observatório de IA nas Eleições, do Data Privacy, alerta que ainda há uma dificuldade de identificar esses conteúdos, já que muitos deles não são rotulados - em desconformidade com a lei eleitoral. “Se torna muito difícil para o juiz identificar o que é um vídeo manipulado de forma ética ou não ética sem esse tipo de indicação. Não existe denominação do que é deepfake. Como eles vão julgar com base no que eles não sabem o que é?”, questiona.

IA é vedada se for usada para enganar o eleitor

Tribunais Regionais Eleitorais têm analisado a sofisticação da manipulação do conteúdo ao decidir se há uso irregular de inteligência artificial (IA) ou deepfakes na propaganda eleitoral de candidatos. O entendimento, que tem se consolidado até agora, é que a imitação deve ter o potencial de enganar o eleitor. Também há casos em que os tribunais não viram provas suficientes de que o conteúdo foi gerado por IA. O Broadcast Político identificou 17 processos julgados sobre o tema neste ano, e em 12 deles os desembargadores decidiram manter o conteúdo.

Em um caso de Gravataí (RS), ao analisar uma montagem que associa os candidatos a prefeito e vice-prefeito aos personagens Patati e Patatá, o TRE-RS definiu que “não configura deepfake a montagem tosca, sem o uso de técnica sofisticada de manipulação de mídia e sem a utilização de inteligência artificial”.

TRE do Rio Grande do Sul considerou que montagem "tosca" não contém "técnica sofisticada de manipulação de mídia", nem pode ser considerada como caso de utilização de inteligência artificial  Foto: Reprodução / Estadão

Em São Paulo, o TRE-SP negou recurso do prefeito e candidato à reeleição Ricardo Nunes (MDB) no caso em que acusou Tabata Amaral (PSB) de usar deepfake em vídeo que coloca o rosto Nunes no personagem Ken, do filme “Barbie”.

Em Camboriú (SC), o PSD acionou o TRE-SC devido a uma imagem veiculada em grupo de WhatsApp que associa Leonel Pavan, candidato a prefeito na cidade, ao crime de assédio sexual. Trata-se de um print que, segundo o PSD, simula uma notícia com o título “Pavan comete assédio sexual mais uma vez”. O tribunal negou a ação por entender que a mensagem é de autoria desconhecida e que não há provas de manipulação. “Não é dado afastar, na cognição nebulosa que se alcança, sua procedência derivativa da imprensa local”, disse o relator, José Minatto, em seu voto.

Em Itaberaba (BA), o candidato a prefeito João Filho (PSD) foi acusado de alterar a fala do presidente Luiz Inácio Lula da Silva em um vídeo publicado nas redes sociais para que Lula pedisse votos para ele. O TRE-BA concluiu que a acusação se baseia em uma aparência de anormalidade da voz, “sem qualquer fundamento técnico”, e manteve a publicação.

Em Uberlândia (MG), por outro lado, o TRE-MG considerou que é deepfake uma imagem manipulada digitalmente do candidato Gustavo Galassi (Republicanos) abraçando seu avô Virgílio Galassi, já falecido. “A questão tratada não é o fato de Gustavo fazer homenagem a seu avô ou o fato de o conteúdo ser ou não propaganda eleitoral. A questão é se, mesmo contendo o destaque que o conteúdo foi criado por inteligência artificial, pode haver deepfake para favorecer candidatura ou para prejudicar”, disse a relatora, Flávia Birchal De Moura, em seu voto.

Outros casos discutiram, ainda, o uso de ferramentas de conversão de texto para voz ou de simulação gráfica de diálogos. Apesar de o deepfake ser proibido, o uso de IA quando não há manipulação das informações é permitido, desde que seja identificado por aviso explícito de que o conteúdo foi gerado e por qual tecnologia.

“Há uma dificuldade em afirmar que a peça publicitária foi feita utilizando IA, e não outra ferramenta gráfica lícita”, diz o advogado Fernando Neisser, membro da coordenação acadêmica da Academia Brasileira de Direito Eleitoral e Político (Abradep). O advogado avalia que “alguns usos mais simples, que não são para enganar as pessoas”, poderiam até dispensar o uso de etiqueta.

Carla Rodrigues, uma das responsáveis pelo projeto Observatório de IA nas Eleições, do Data Privacy, também aponta que há uma falta de definição do que é conteúdo sintético e o que não é. “Pode usar IA desde que seja rotulado como IA, mas pode utilizar IA e fazer qualquer manipulação? Se a gente não tem uma definição própria dos conceitos, fica muito difícil para o juiz ter conhecimento dessas ferramentas, cada vez mais sofisticadas”, afirma.

Para Miguel Novaes, do Ferraro, Rocha e Novaes Advogados, “ainda estão muito esparsas as decisões e o entendimento sobre o tema” no Brasil. O papel do TSE é unificar o entendimento de temas com tratamento divergente na Justiça, mas a Corte ainda não julgou nenhum processo sobre uso irregular de IA e deepfake. Para chegar até a instância máxima da Justiça Eleitoral, é preciso antes recorrer na primeira e na segunda instância.

Atualizamos nossa política de cookies

Ao utilizar nossos serviços, você aceita a política de monitoramento de cookies.