Pessimismo sobre desinformação cresce com IA e ação de políticos e donos de redes sociais


Pesquisa global aponta principais ameaças à qualidade do ambiente informacional no mundo; especialistas alertam para impacto da inteligência artificial nos próximos pleitos

Por Matheus Lara

Uma pesquisa global do International Panel on the Information Environment (IPIE) revelou piora na expectativa de especialistas sobre desinformação para os próximos anos. O estudo aponta lideranças políticas, governos e donos de redes sociais como principais ameaças à qualidade do ambiente informacional mundial e põe a inteligência artificial (IA) no centro das preocupações para o futuro próximo. Analistas ouvidos pelo Estadão consideram que, apesar de a IA ter tido impacto menor do que o esperado nas eleições de 2024, instituições devem se manter em alerta para os próximos pleitos.

Mais de 400 acadêmicos de áreas como ciências da computação, engenharia de dados, ciências sociais e humanas, de 66 países, foram entrevistados pelo IPIE. Enquanto mais da metade (54%) esperava que as condições piorassem em 2023, o número subiu para 63% em 2024. Nos países em desenvolvimento, como o Brasil, 75% dos especialistas se dizem muito pessimistas em relação ao futuro do ambiente informacional. Um dos principais motivos para esse pessimismo é o uso de IA.

Proprietários de redes sociais foram apontados como principal ameaça ao ambiente informacional global por 15,5% dos especialistas no estudo do IPIE. Governos e políticos do país de origem dos entrevistados vêm na sequência, com 12,1%. Depois vêm os governos e políticos de outros países e as mídias estatais. O menor risco, segundo os entrevistados, vem de jornalistas e da imprensa, citados como ameaça por apenas 1,5% dos participantes.

continua após a publicidade

O embate jurídico entre o X de Elon Musk e a Justiça brasileira é o caso mais notório a exemplificar o risco apontado pela pesquisa sobre desinformação. “O controle que essas entidades exercem sobre a distribuição de conteúdo e as políticas de moderação afeta significativamente a qualidade e a integridade da informação”, diz Phil Howard, presidente do IPIE. “O poder irrestrito dessas entidades representa um grave risco para a saúde do nosso ambiente informacional global”.

Preocupação

continua após a publicidade

Para mais da metade dos participantes da pesquisa, vídeos, vozes, imagens e textos gerados artificialmente representam, neste momento, um risco. Os resultados indicam a formação crescente de um consenso entre a comunidade acadêmica global sobre o estado deteriorante do ambiente de informação devido à inteligência artificial.

Elon Musk, dono do X; donos de redes sociais são apontados como maiores ameaças à qualidade do ambiente informacional global em pesquisa do IPIE Foto: Giorgia Meloni/NYT

O Data Privacy Brasil, que monitora o uso de IA em parceria com o Desinformante e a Aláfia Lab, registrou 26 casos durante o primeiro turno do processo eleitoral de 2024 no País. Deepfakes, chatbots e jingles criados artificialmente foram os principais tipos de IA utilizados no primeiro turno. Entre as ocorrências, foram registrados até os chamados “deepnudes”, imagens e vídeos falsos com teor sexual. Candidatas derrotadas na corrida eleitoral de São Paulo, Tabata Amaral (PSB) e Marina Helena (Novo) estavam entre as vítimas.

continua após a publicidade

A lista de vídeos falsos que circularam pelas redes sociais durante o primeiro turno na capital paulista inclui um suposto abraço de reconciliação entre Pablo Marçal (PRTB) e Tabata e uma imagem de José Luiz Datena (PSDB) agredindo uma jornalista. Tudo criado artificialmente.

“É um risco permanente. Daí a importância de serem observados e contidos por medidas institucionais, especialmente a atuação da Justiça, que precisa continuar se debruçando permanentemente sobre esse tema”, avaliou Rafael Zanatta, diretor do Data Privacy Brasil. “É preciso avançar desse pleito para o próximo reavaliando o quanto as regras vigentes fazem sentido e são aderentes a uma realidade que é cambiante, que está sempre em transformação.”

O Tribunal Superior Eleitoral (TSE) proibiu as deepfakes nas eleições deste ano e tornou obrigatório o aviso sobre uso de IA em propaganda eleitoral. A Corte ainda restringiu o emprego de robôs e responsabilizou as big techs pela não remoção de conteúdos com desinformação e discursos de ódio.

continua após a publicidade

Chefe de programas do IPIE, Egerton Neto considera que os próximos pleitos serão desafiadores. “O mais difícil ainda está por vir. As eleições de 2026 e 2028 ocorrerão em um ambiente informacional ainda pior. Isso coloca pressão nas instituições tanto para regular o uso de IA como também explorar formas em que a IA possa ser uma aliada, como na detecção de deepfakes”, avalia ele.

Siga o ‘Estadão’ nas redes sociais

Uma pesquisa global do International Panel on the Information Environment (IPIE) revelou piora na expectativa de especialistas sobre desinformação para os próximos anos. O estudo aponta lideranças políticas, governos e donos de redes sociais como principais ameaças à qualidade do ambiente informacional mundial e põe a inteligência artificial (IA) no centro das preocupações para o futuro próximo. Analistas ouvidos pelo Estadão consideram que, apesar de a IA ter tido impacto menor do que o esperado nas eleições de 2024, instituições devem se manter em alerta para os próximos pleitos.

Mais de 400 acadêmicos de áreas como ciências da computação, engenharia de dados, ciências sociais e humanas, de 66 países, foram entrevistados pelo IPIE. Enquanto mais da metade (54%) esperava que as condições piorassem em 2023, o número subiu para 63% em 2024. Nos países em desenvolvimento, como o Brasil, 75% dos especialistas se dizem muito pessimistas em relação ao futuro do ambiente informacional. Um dos principais motivos para esse pessimismo é o uso de IA.

Proprietários de redes sociais foram apontados como principal ameaça ao ambiente informacional global por 15,5% dos especialistas no estudo do IPIE. Governos e políticos do país de origem dos entrevistados vêm na sequência, com 12,1%. Depois vêm os governos e políticos de outros países e as mídias estatais. O menor risco, segundo os entrevistados, vem de jornalistas e da imprensa, citados como ameaça por apenas 1,5% dos participantes.

O embate jurídico entre o X de Elon Musk e a Justiça brasileira é o caso mais notório a exemplificar o risco apontado pela pesquisa sobre desinformação. “O controle que essas entidades exercem sobre a distribuição de conteúdo e as políticas de moderação afeta significativamente a qualidade e a integridade da informação”, diz Phil Howard, presidente do IPIE. “O poder irrestrito dessas entidades representa um grave risco para a saúde do nosso ambiente informacional global”.

Preocupação

Para mais da metade dos participantes da pesquisa, vídeos, vozes, imagens e textos gerados artificialmente representam, neste momento, um risco. Os resultados indicam a formação crescente de um consenso entre a comunidade acadêmica global sobre o estado deteriorante do ambiente de informação devido à inteligência artificial.

Elon Musk, dono do X; donos de redes sociais são apontados como maiores ameaças à qualidade do ambiente informacional global em pesquisa do IPIE Foto: Giorgia Meloni/NYT

O Data Privacy Brasil, que monitora o uso de IA em parceria com o Desinformante e a Aláfia Lab, registrou 26 casos durante o primeiro turno do processo eleitoral de 2024 no País. Deepfakes, chatbots e jingles criados artificialmente foram os principais tipos de IA utilizados no primeiro turno. Entre as ocorrências, foram registrados até os chamados “deepnudes”, imagens e vídeos falsos com teor sexual. Candidatas derrotadas na corrida eleitoral de São Paulo, Tabata Amaral (PSB) e Marina Helena (Novo) estavam entre as vítimas.

A lista de vídeos falsos que circularam pelas redes sociais durante o primeiro turno na capital paulista inclui um suposto abraço de reconciliação entre Pablo Marçal (PRTB) e Tabata e uma imagem de José Luiz Datena (PSDB) agredindo uma jornalista. Tudo criado artificialmente.

“É um risco permanente. Daí a importância de serem observados e contidos por medidas institucionais, especialmente a atuação da Justiça, que precisa continuar se debruçando permanentemente sobre esse tema”, avaliou Rafael Zanatta, diretor do Data Privacy Brasil. “É preciso avançar desse pleito para o próximo reavaliando o quanto as regras vigentes fazem sentido e são aderentes a uma realidade que é cambiante, que está sempre em transformação.”

O Tribunal Superior Eleitoral (TSE) proibiu as deepfakes nas eleições deste ano e tornou obrigatório o aviso sobre uso de IA em propaganda eleitoral. A Corte ainda restringiu o emprego de robôs e responsabilizou as big techs pela não remoção de conteúdos com desinformação e discursos de ódio.

Chefe de programas do IPIE, Egerton Neto considera que os próximos pleitos serão desafiadores. “O mais difícil ainda está por vir. As eleições de 2026 e 2028 ocorrerão em um ambiente informacional ainda pior. Isso coloca pressão nas instituições tanto para regular o uso de IA como também explorar formas em que a IA possa ser uma aliada, como na detecção de deepfakes”, avalia ele.

Siga o ‘Estadão’ nas redes sociais

Uma pesquisa global do International Panel on the Information Environment (IPIE) revelou piora na expectativa de especialistas sobre desinformação para os próximos anos. O estudo aponta lideranças políticas, governos e donos de redes sociais como principais ameaças à qualidade do ambiente informacional mundial e põe a inteligência artificial (IA) no centro das preocupações para o futuro próximo. Analistas ouvidos pelo Estadão consideram que, apesar de a IA ter tido impacto menor do que o esperado nas eleições de 2024, instituições devem se manter em alerta para os próximos pleitos.

Mais de 400 acadêmicos de áreas como ciências da computação, engenharia de dados, ciências sociais e humanas, de 66 países, foram entrevistados pelo IPIE. Enquanto mais da metade (54%) esperava que as condições piorassem em 2023, o número subiu para 63% em 2024. Nos países em desenvolvimento, como o Brasil, 75% dos especialistas se dizem muito pessimistas em relação ao futuro do ambiente informacional. Um dos principais motivos para esse pessimismo é o uso de IA.

Proprietários de redes sociais foram apontados como principal ameaça ao ambiente informacional global por 15,5% dos especialistas no estudo do IPIE. Governos e políticos do país de origem dos entrevistados vêm na sequência, com 12,1%. Depois vêm os governos e políticos de outros países e as mídias estatais. O menor risco, segundo os entrevistados, vem de jornalistas e da imprensa, citados como ameaça por apenas 1,5% dos participantes.

O embate jurídico entre o X de Elon Musk e a Justiça brasileira é o caso mais notório a exemplificar o risco apontado pela pesquisa sobre desinformação. “O controle que essas entidades exercem sobre a distribuição de conteúdo e as políticas de moderação afeta significativamente a qualidade e a integridade da informação”, diz Phil Howard, presidente do IPIE. “O poder irrestrito dessas entidades representa um grave risco para a saúde do nosso ambiente informacional global”.

Preocupação

Para mais da metade dos participantes da pesquisa, vídeos, vozes, imagens e textos gerados artificialmente representam, neste momento, um risco. Os resultados indicam a formação crescente de um consenso entre a comunidade acadêmica global sobre o estado deteriorante do ambiente de informação devido à inteligência artificial.

Elon Musk, dono do X; donos de redes sociais são apontados como maiores ameaças à qualidade do ambiente informacional global em pesquisa do IPIE Foto: Giorgia Meloni/NYT

O Data Privacy Brasil, que monitora o uso de IA em parceria com o Desinformante e a Aláfia Lab, registrou 26 casos durante o primeiro turno do processo eleitoral de 2024 no País. Deepfakes, chatbots e jingles criados artificialmente foram os principais tipos de IA utilizados no primeiro turno. Entre as ocorrências, foram registrados até os chamados “deepnudes”, imagens e vídeos falsos com teor sexual. Candidatas derrotadas na corrida eleitoral de São Paulo, Tabata Amaral (PSB) e Marina Helena (Novo) estavam entre as vítimas.

A lista de vídeos falsos que circularam pelas redes sociais durante o primeiro turno na capital paulista inclui um suposto abraço de reconciliação entre Pablo Marçal (PRTB) e Tabata e uma imagem de José Luiz Datena (PSDB) agredindo uma jornalista. Tudo criado artificialmente.

“É um risco permanente. Daí a importância de serem observados e contidos por medidas institucionais, especialmente a atuação da Justiça, que precisa continuar se debruçando permanentemente sobre esse tema”, avaliou Rafael Zanatta, diretor do Data Privacy Brasil. “É preciso avançar desse pleito para o próximo reavaliando o quanto as regras vigentes fazem sentido e são aderentes a uma realidade que é cambiante, que está sempre em transformação.”

O Tribunal Superior Eleitoral (TSE) proibiu as deepfakes nas eleições deste ano e tornou obrigatório o aviso sobre uso de IA em propaganda eleitoral. A Corte ainda restringiu o emprego de robôs e responsabilizou as big techs pela não remoção de conteúdos com desinformação e discursos de ódio.

Chefe de programas do IPIE, Egerton Neto considera que os próximos pleitos serão desafiadores. “O mais difícil ainda está por vir. As eleições de 2026 e 2028 ocorrerão em um ambiente informacional ainda pior. Isso coloca pressão nas instituições tanto para regular o uso de IA como também explorar formas em que a IA possa ser uma aliada, como na detecção de deepfakes”, avalia ele.

Siga o ‘Estadão’ nas redes sociais

Uma pesquisa global do International Panel on the Information Environment (IPIE) revelou piora na expectativa de especialistas sobre desinformação para os próximos anos. O estudo aponta lideranças políticas, governos e donos de redes sociais como principais ameaças à qualidade do ambiente informacional mundial e põe a inteligência artificial (IA) no centro das preocupações para o futuro próximo. Analistas ouvidos pelo Estadão consideram que, apesar de a IA ter tido impacto menor do que o esperado nas eleições de 2024, instituições devem se manter em alerta para os próximos pleitos.

Mais de 400 acadêmicos de áreas como ciências da computação, engenharia de dados, ciências sociais e humanas, de 66 países, foram entrevistados pelo IPIE. Enquanto mais da metade (54%) esperava que as condições piorassem em 2023, o número subiu para 63% em 2024. Nos países em desenvolvimento, como o Brasil, 75% dos especialistas se dizem muito pessimistas em relação ao futuro do ambiente informacional. Um dos principais motivos para esse pessimismo é o uso de IA.

Proprietários de redes sociais foram apontados como principal ameaça ao ambiente informacional global por 15,5% dos especialistas no estudo do IPIE. Governos e políticos do país de origem dos entrevistados vêm na sequência, com 12,1%. Depois vêm os governos e políticos de outros países e as mídias estatais. O menor risco, segundo os entrevistados, vem de jornalistas e da imprensa, citados como ameaça por apenas 1,5% dos participantes.

O embate jurídico entre o X de Elon Musk e a Justiça brasileira é o caso mais notório a exemplificar o risco apontado pela pesquisa sobre desinformação. “O controle que essas entidades exercem sobre a distribuição de conteúdo e as políticas de moderação afeta significativamente a qualidade e a integridade da informação”, diz Phil Howard, presidente do IPIE. “O poder irrestrito dessas entidades representa um grave risco para a saúde do nosso ambiente informacional global”.

Preocupação

Para mais da metade dos participantes da pesquisa, vídeos, vozes, imagens e textos gerados artificialmente representam, neste momento, um risco. Os resultados indicam a formação crescente de um consenso entre a comunidade acadêmica global sobre o estado deteriorante do ambiente de informação devido à inteligência artificial.

Elon Musk, dono do X; donos de redes sociais são apontados como maiores ameaças à qualidade do ambiente informacional global em pesquisa do IPIE Foto: Giorgia Meloni/NYT

O Data Privacy Brasil, que monitora o uso de IA em parceria com o Desinformante e a Aláfia Lab, registrou 26 casos durante o primeiro turno do processo eleitoral de 2024 no País. Deepfakes, chatbots e jingles criados artificialmente foram os principais tipos de IA utilizados no primeiro turno. Entre as ocorrências, foram registrados até os chamados “deepnudes”, imagens e vídeos falsos com teor sexual. Candidatas derrotadas na corrida eleitoral de São Paulo, Tabata Amaral (PSB) e Marina Helena (Novo) estavam entre as vítimas.

A lista de vídeos falsos que circularam pelas redes sociais durante o primeiro turno na capital paulista inclui um suposto abraço de reconciliação entre Pablo Marçal (PRTB) e Tabata e uma imagem de José Luiz Datena (PSDB) agredindo uma jornalista. Tudo criado artificialmente.

“É um risco permanente. Daí a importância de serem observados e contidos por medidas institucionais, especialmente a atuação da Justiça, que precisa continuar se debruçando permanentemente sobre esse tema”, avaliou Rafael Zanatta, diretor do Data Privacy Brasil. “É preciso avançar desse pleito para o próximo reavaliando o quanto as regras vigentes fazem sentido e são aderentes a uma realidade que é cambiante, que está sempre em transformação.”

O Tribunal Superior Eleitoral (TSE) proibiu as deepfakes nas eleições deste ano e tornou obrigatório o aviso sobre uso de IA em propaganda eleitoral. A Corte ainda restringiu o emprego de robôs e responsabilizou as big techs pela não remoção de conteúdos com desinformação e discursos de ódio.

Chefe de programas do IPIE, Egerton Neto considera que os próximos pleitos serão desafiadores. “O mais difícil ainda está por vir. As eleições de 2026 e 2028 ocorrerão em um ambiente informacional ainda pior. Isso coloca pressão nas instituições tanto para regular o uso de IA como também explorar formas em que a IA possa ser uma aliada, como na detecção de deepfakes”, avalia ele.

Siga o ‘Estadão’ nas redes sociais

Uma pesquisa global do International Panel on the Information Environment (IPIE) revelou piora na expectativa de especialistas sobre desinformação para os próximos anos. O estudo aponta lideranças políticas, governos e donos de redes sociais como principais ameaças à qualidade do ambiente informacional mundial e põe a inteligência artificial (IA) no centro das preocupações para o futuro próximo. Analistas ouvidos pelo Estadão consideram que, apesar de a IA ter tido impacto menor do que o esperado nas eleições de 2024, instituições devem se manter em alerta para os próximos pleitos.

Mais de 400 acadêmicos de áreas como ciências da computação, engenharia de dados, ciências sociais e humanas, de 66 países, foram entrevistados pelo IPIE. Enquanto mais da metade (54%) esperava que as condições piorassem em 2023, o número subiu para 63% em 2024. Nos países em desenvolvimento, como o Brasil, 75% dos especialistas se dizem muito pessimistas em relação ao futuro do ambiente informacional. Um dos principais motivos para esse pessimismo é o uso de IA.

Proprietários de redes sociais foram apontados como principal ameaça ao ambiente informacional global por 15,5% dos especialistas no estudo do IPIE. Governos e políticos do país de origem dos entrevistados vêm na sequência, com 12,1%. Depois vêm os governos e políticos de outros países e as mídias estatais. O menor risco, segundo os entrevistados, vem de jornalistas e da imprensa, citados como ameaça por apenas 1,5% dos participantes.

O embate jurídico entre o X de Elon Musk e a Justiça brasileira é o caso mais notório a exemplificar o risco apontado pela pesquisa sobre desinformação. “O controle que essas entidades exercem sobre a distribuição de conteúdo e as políticas de moderação afeta significativamente a qualidade e a integridade da informação”, diz Phil Howard, presidente do IPIE. “O poder irrestrito dessas entidades representa um grave risco para a saúde do nosso ambiente informacional global”.

Preocupação

Para mais da metade dos participantes da pesquisa, vídeos, vozes, imagens e textos gerados artificialmente representam, neste momento, um risco. Os resultados indicam a formação crescente de um consenso entre a comunidade acadêmica global sobre o estado deteriorante do ambiente de informação devido à inteligência artificial.

Elon Musk, dono do X; donos de redes sociais são apontados como maiores ameaças à qualidade do ambiente informacional global em pesquisa do IPIE Foto: Giorgia Meloni/NYT

O Data Privacy Brasil, que monitora o uso de IA em parceria com o Desinformante e a Aláfia Lab, registrou 26 casos durante o primeiro turno do processo eleitoral de 2024 no País. Deepfakes, chatbots e jingles criados artificialmente foram os principais tipos de IA utilizados no primeiro turno. Entre as ocorrências, foram registrados até os chamados “deepnudes”, imagens e vídeos falsos com teor sexual. Candidatas derrotadas na corrida eleitoral de São Paulo, Tabata Amaral (PSB) e Marina Helena (Novo) estavam entre as vítimas.

A lista de vídeos falsos que circularam pelas redes sociais durante o primeiro turno na capital paulista inclui um suposto abraço de reconciliação entre Pablo Marçal (PRTB) e Tabata e uma imagem de José Luiz Datena (PSDB) agredindo uma jornalista. Tudo criado artificialmente.

“É um risco permanente. Daí a importância de serem observados e contidos por medidas institucionais, especialmente a atuação da Justiça, que precisa continuar se debruçando permanentemente sobre esse tema”, avaliou Rafael Zanatta, diretor do Data Privacy Brasil. “É preciso avançar desse pleito para o próximo reavaliando o quanto as regras vigentes fazem sentido e são aderentes a uma realidade que é cambiante, que está sempre em transformação.”

O Tribunal Superior Eleitoral (TSE) proibiu as deepfakes nas eleições deste ano e tornou obrigatório o aviso sobre uso de IA em propaganda eleitoral. A Corte ainda restringiu o emprego de robôs e responsabilizou as big techs pela não remoção de conteúdos com desinformação e discursos de ódio.

Chefe de programas do IPIE, Egerton Neto considera que os próximos pleitos serão desafiadores. “O mais difícil ainda está por vir. As eleições de 2026 e 2028 ocorrerão em um ambiente informacional ainda pior. Isso coloca pressão nas instituições tanto para regular o uso de IA como também explorar formas em que a IA possa ser uma aliada, como na detecção de deepfakes”, avalia ele.

Siga o ‘Estadão’ nas redes sociais

Atualizamos nossa política de cookies

Ao utilizar nossos serviços, você aceita a política de monitoramento de cookies.