OpenAI derruba contas de propaganda política da Rússia, China, Irã e Israel que usaram ChatGPT


Inteligência artificial generativa foi utilizada para escrever posts, traduzi-los em vários idiomas e criar um software de publicação em massa nas redes sociais

Por Gerrit De Vynck

SAN FRANCISCO - A OpenAI, desenvolvedora do ChatGPT, disse nesta quinta-feira, 30, que flagrou grupos da Rússia, China, Irã e Israel usando sua tecnologia para tentar influenciar o discurso político em todo o mundo, destacando as preocupações de que a inteligência artificial (IA) generativa está facilitando a realização de campanhas secretas de propaganda por parte de agentes estatais, à medida que a eleição presidencial de 2024 se aproxima.

A OpenAI removeu contas associadas a operações de propaganda bem conhecidas na Rússia, China e Irã; uma empresa de campanha política israelense; e um grupo anteriormente desconhecido originário da Rússia que os pesquisadores da empresa apelidaram de “Bad Grammar”. Os grupos usaram a tecnologia da OpenAI para escrever publicações, traduzi-las para vários idiomas e criar um software que os ajudou a publicar automaticamente nas mídias sociais.

Nenhum desses grupos conseguiu obter muita força; as contas de mídia social associadas a eles alcançavam poucos usuários e tinham apenas um punhado de seguidores, disse Ben Nimmo, pesquisador principal da equipe de inteligência e investigações da OpenAI. Ainda assim, o relatório da OpenAI mostra que os propagandistas que estão ativos há anos nas mídias sociais estão usando a tecnologia de IA para impulsionar suas campanhas.

continua após a publicidade

“Vimos que eles geram texto em um volume maior e com menos erros do que essas operações tradicionalmente gerenciam”, disse Nimmo, que trabalhou anteriormente na Meta (dona do Facebook, Instagram e WhatsApp) rastreando operações de influência, em uma conferência com a imprensa. Nimmo disse que é possível que outros grupos ainda estejam usando as ferramentas da OpenAI sem o conhecimento da empresa.

“Este não é o momento para complacência. A história mostra que as operações de influência que passaram anos sem conseguir chegar a lugar algum podem surgir de repente se ninguém estiver procurando por elas”, disse ele.

continua após a publicidade

Governos, partidos políticos e grupos de ativistas têm usado as mídias sociais para tentar influenciar a política há anos. Após preocupações com a influência russa na eleição presidencial de 2016, as plataformas de mídia social começaram a prestar mais atenção em como seus sites estavam sendo usados para influenciar os eleitores. As empresas geralmente proíbem governos e grupos políticos de encobrir esforços conjuntos para influenciar os usuários, e os anúncios políticos devem exibir quem pagou por eles.

OpenAI é a empresa dona do ChatGPT Foto: Michael Dwyer/AP

À medida que as ferramentas de IA que podem gerar textos, imagens e até mesmo vídeos realistas se tornam disponíveis amplamente, os pesquisadores de desinformação têm levantado preocupações de que se tornará ainda mais difícil detectar e responder a informações falsas ou operações secretas de influência on-line. Centenas de milhões de pessoas votam em eleições em todo o mundo este ano, e os deepfakes de IA generativa já se proliferaram.

continua após a publicidade

A OpenAI, o Google e outras empresas de IA têm trabalhado em tecnologia para identificar deepfakes feitos com suas próprias ferramentas, mas essa tecnologia ainda não foi comprovada. Alguns especialistas em IA acreditam que os detectores de deepfake nunca serão totalmente eficazes.

No início deste ano, um grupo afiliado ao Partido Comunista Chinês publicou um áudio gerado por IA de um candidato nas eleições de Taiwan supostamente endossando outro. Entretanto, o político, Terry Gou, proprietário da Foxconn, não endossou o outro político.

Em janeiro, os eleitores das primárias de New Hampshire, nos Estados Unidos, receberam um robocall que parecia ser do presidente Biden, mas que rapidamente se descobriu ser uma IA. Na semana passada, um agente democrata que disse ter encomendado a ligação automática foi indiciado sob a acusação de supressão de eleitores e de se passar por um candidato.

continua após a publicidade

O relatório da OpenAI detalhou como os cinco grupos usaram a tecnologia da empresa em suas tentativas de operações de influência. O Spamouflage, um grupo anteriormente conhecido, originário da China, usou a tecnologia da OpenAI para pesquisar atividades nas mídias sociais e escrever publicações em chinês, coreano, japonês e inglês, informou a empresa. Um grupo iraniano conhecido como International Union of Virtual Media também usou a tecnologia da OpenAI para criar artigos que foram publicados em seu site.

Bad Grammar, o grupo até então desconhecido, usou a tecnologia da OpenAI para ajudar a criar um programa que pudesse publicar automaticamente no aplicativo de mensagens Telegram. Em seguida, o Bad Grammar usou a tecnologia da OpenAI para gerar postagens e comentários em russo e inglês, argumentando que os Estados Unidos não deveriam apoiar a Ucrânia, de acordo com o relatório.

continua após a publicidade

O relatório também descobriu que uma empresa israelense de campanha política chamada Stoic usou a OpenAI para gerar postagens pró-Israel sobre a guerra de Gaza e direcioná-las a pessoas no Canadá, nos Estados Unidos e em Israel, disse a OpenAI. Na quarta-feira, a Meta, proprietária do Facebook, também divulgou o trabalho da Stoic, dizendo que removeu 510 contas do Facebook e 32 do Instagram usadas pelo grupo. Algumas das contas foram hackeadas, enquanto outras eram de pessoas fictícias, disse a empresa aos repórteres.

As contas em questão frequentemente comentavam em páginas de indivíduos conhecidos ou organizações de mídia, fazendo-se passar por estudantes universitários americanos pró-Israel, afroamericanos e outros. Os comentários apoiavam os militares israelenses e advertiam os canadenses de que o “Islã radical” ameaçava os valores liberais do país, disse Meta.

A IA entrou em ação na redação de alguns comentários, que pareceram estranhos e fora de contexto aos usuários reais do Facebook. A operação teve um desempenho ruim, segundo a empresa, atraindo apenas cerca de 2,6 mil seguidores legítimos.

continua após a publicidade

A Meta agiu depois que o Digital Forensic Research Lab do Atlantic Council descobriu a rede enquanto acompanhava operações semelhantes identificadas por outros pesquisadores e publicações.

No ano passado, os pesquisadores de desinformação sugeriram que os chatbots de IA poderiam ser usados para manter conversas longas e detalhadas com pessoas específicas on-line, tentando influenciá-las em uma determinada direção. As ferramentas de IA também poderiam ingerir grandes quantidades de dados sobre indivíduos e adaptar mensagens diretamente a eles.

A OpenAI não encontrou nenhum desses usos mais sofisticados da IA, disse Nimmo. “É muito mais uma evolução do que uma revolução”, disse ele. “Nada disso quer dizer que talvez não vejamos isso no futuro.”

Joseph Menn contribuiu para esta reportagem.

Este conteúdo foi traduzido com o auxílio de ferramentas de Inteligência Artificial e revisado por nossa equipe editorial. Saiba mais em nossa Política de IA.

SAN FRANCISCO - A OpenAI, desenvolvedora do ChatGPT, disse nesta quinta-feira, 30, que flagrou grupos da Rússia, China, Irã e Israel usando sua tecnologia para tentar influenciar o discurso político em todo o mundo, destacando as preocupações de que a inteligência artificial (IA) generativa está facilitando a realização de campanhas secretas de propaganda por parte de agentes estatais, à medida que a eleição presidencial de 2024 se aproxima.

A OpenAI removeu contas associadas a operações de propaganda bem conhecidas na Rússia, China e Irã; uma empresa de campanha política israelense; e um grupo anteriormente desconhecido originário da Rússia que os pesquisadores da empresa apelidaram de “Bad Grammar”. Os grupos usaram a tecnologia da OpenAI para escrever publicações, traduzi-las para vários idiomas e criar um software que os ajudou a publicar automaticamente nas mídias sociais.

Nenhum desses grupos conseguiu obter muita força; as contas de mídia social associadas a eles alcançavam poucos usuários e tinham apenas um punhado de seguidores, disse Ben Nimmo, pesquisador principal da equipe de inteligência e investigações da OpenAI. Ainda assim, o relatório da OpenAI mostra que os propagandistas que estão ativos há anos nas mídias sociais estão usando a tecnologia de IA para impulsionar suas campanhas.

“Vimos que eles geram texto em um volume maior e com menos erros do que essas operações tradicionalmente gerenciam”, disse Nimmo, que trabalhou anteriormente na Meta (dona do Facebook, Instagram e WhatsApp) rastreando operações de influência, em uma conferência com a imprensa. Nimmo disse que é possível que outros grupos ainda estejam usando as ferramentas da OpenAI sem o conhecimento da empresa.

“Este não é o momento para complacência. A história mostra que as operações de influência que passaram anos sem conseguir chegar a lugar algum podem surgir de repente se ninguém estiver procurando por elas”, disse ele.

Governos, partidos políticos e grupos de ativistas têm usado as mídias sociais para tentar influenciar a política há anos. Após preocupações com a influência russa na eleição presidencial de 2016, as plataformas de mídia social começaram a prestar mais atenção em como seus sites estavam sendo usados para influenciar os eleitores. As empresas geralmente proíbem governos e grupos políticos de encobrir esforços conjuntos para influenciar os usuários, e os anúncios políticos devem exibir quem pagou por eles.

OpenAI é a empresa dona do ChatGPT Foto: Michael Dwyer/AP

À medida que as ferramentas de IA que podem gerar textos, imagens e até mesmo vídeos realistas se tornam disponíveis amplamente, os pesquisadores de desinformação têm levantado preocupações de que se tornará ainda mais difícil detectar e responder a informações falsas ou operações secretas de influência on-line. Centenas de milhões de pessoas votam em eleições em todo o mundo este ano, e os deepfakes de IA generativa já se proliferaram.

A OpenAI, o Google e outras empresas de IA têm trabalhado em tecnologia para identificar deepfakes feitos com suas próprias ferramentas, mas essa tecnologia ainda não foi comprovada. Alguns especialistas em IA acreditam que os detectores de deepfake nunca serão totalmente eficazes.

No início deste ano, um grupo afiliado ao Partido Comunista Chinês publicou um áudio gerado por IA de um candidato nas eleições de Taiwan supostamente endossando outro. Entretanto, o político, Terry Gou, proprietário da Foxconn, não endossou o outro político.

Em janeiro, os eleitores das primárias de New Hampshire, nos Estados Unidos, receberam um robocall que parecia ser do presidente Biden, mas que rapidamente se descobriu ser uma IA. Na semana passada, um agente democrata que disse ter encomendado a ligação automática foi indiciado sob a acusação de supressão de eleitores e de se passar por um candidato.

O relatório da OpenAI detalhou como os cinco grupos usaram a tecnologia da empresa em suas tentativas de operações de influência. O Spamouflage, um grupo anteriormente conhecido, originário da China, usou a tecnologia da OpenAI para pesquisar atividades nas mídias sociais e escrever publicações em chinês, coreano, japonês e inglês, informou a empresa. Um grupo iraniano conhecido como International Union of Virtual Media também usou a tecnologia da OpenAI para criar artigos que foram publicados em seu site.

Bad Grammar, o grupo até então desconhecido, usou a tecnologia da OpenAI para ajudar a criar um programa que pudesse publicar automaticamente no aplicativo de mensagens Telegram. Em seguida, o Bad Grammar usou a tecnologia da OpenAI para gerar postagens e comentários em russo e inglês, argumentando que os Estados Unidos não deveriam apoiar a Ucrânia, de acordo com o relatório.

O relatório também descobriu que uma empresa israelense de campanha política chamada Stoic usou a OpenAI para gerar postagens pró-Israel sobre a guerra de Gaza e direcioná-las a pessoas no Canadá, nos Estados Unidos e em Israel, disse a OpenAI. Na quarta-feira, a Meta, proprietária do Facebook, também divulgou o trabalho da Stoic, dizendo que removeu 510 contas do Facebook e 32 do Instagram usadas pelo grupo. Algumas das contas foram hackeadas, enquanto outras eram de pessoas fictícias, disse a empresa aos repórteres.

As contas em questão frequentemente comentavam em páginas de indivíduos conhecidos ou organizações de mídia, fazendo-se passar por estudantes universitários americanos pró-Israel, afroamericanos e outros. Os comentários apoiavam os militares israelenses e advertiam os canadenses de que o “Islã radical” ameaçava os valores liberais do país, disse Meta.

A IA entrou em ação na redação de alguns comentários, que pareceram estranhos e fora de contexto aos usuários reais do Facebook. A operação teve um desempenho ruim, segundo a empresa, atraindo apenas cerca de 2,6 mil seguidores legítimos.

A Meta agiu depois que o Digital Forensic Research Lab do Atlantic Council descobriu a rede enquanto acompanhava operações semelhantes identificadas por outros pesquisadores e publicações.

No ano passado, os pesquisadores de desinformação sugeriram que os chatbots de IA poderiam ser usados para manter conversas longas e detalhadas com pessoas específicas on-line, tentando influenciá-las em uma determinada direção. As ferramentas de IA também poderiam ingerir grandes quantidades de dados sobre indivíduos e adaptar mensagens diretamente a eles.

A OpenAI não encontrou nenhum desses usos mais sofisticados da IA, disse Nimmo. “É muito mais uma evolução do que uma revolução”, disse ele. “Nada disso quer dizer que talvez não vejamos isso no futuro.”

Joseph Menn contribuiu para esta reportagem.

Este conteúdo foi traduzido com o auxílio de ferramentas de Inteligência Artificial e revisado por nossa equipe editorial. Saiba mais em nossa Política de IA.

SAN FRANCISCO - A OpenAI, desenvolvedora do ChatGPT, disse nesta quinta-feira, 30, que flagrou grupos da Rússia, China, Irã e Israel usando sua tecnologia para tentar influenciar o discurso político em todo o mundo, destacando as preocupações de que a inteligência artificial (IA) generativa está facilitando a realização de campanhas secretas de propaganda por parte de agentes estatais, à medida que a eleição presidencial de 2024 se aproxima.

A OpenAI removeu contas associadas a operações de propaganda bem conhecidas na Rússia, China e Irã; uma empresa de campanha política israelense; e um grupo anteriormente desconhecido originário da Rússia que os pesquisadores da empresa apelidaram de “Bad Grammar”. Os grupos usaram a tecnologia da OpenAI para escrever publicações, traduzi-las para vários idiomas e criar um software que os ajudou a publicar automaticamente nas mídias sociais.

Nenhum desses grupos conseguiu obter muita força; as contas de mídia social associadas a eles alcançavam poucos usuários e tinham apenas um punhado de seguidores, disse Ben Nimmo, pesquisador principal da equipe de inteligência e investigações da OpenAI. Ainda assim, o relatório da OpenAI mostra que os propagandistas que estão ativos há anos nas mídias sociais estão usando a tecnologia de IA para impulsionar suas campanhas.

“Vimos que eles geram texto em um volume maior e com menos erros do que essas operações tradicionalmente gerenciam”, disse Nimmo, que trabalhou anteriormente na Meta (dona do Facebook, Instagram e WhatsApp) rastreando operações de influência, em uma conferência com a imprensa. Nimmo disse que é possível que outros grupos ainda estejam usando as ferramentas da OpenAI sem o conhecimento da empresa.

“Este não é o momento para complacência. A história mostra que as operações de influência que passaram anos sem conseguir chegar a lugar algum podem surgir de repente se ninguém estiver procurando por elas”, disse ele.

Governos, partidos políticos e grupos de ativistas têm usado as mídias sociais para tentar influenciar a política há anos. Após preocupações com a influência russa na eleição presidencial de 2016, as plataformas de mídia social começaram a prestar mais atenção em como seus sites estavam sendo usados para influenciar os eleitores. As empresas geralmente proíbem governos e grupos políticos de encobrir esforços conjuntos para influenciar os usuários, e os anúncios políticos devem exibir quem pagou por eles.

OpenAI é a empresa dona do ChatGPT Foto: Michael Dwyer/AP

À medida que as ferramentas de IA que podem gerar textos, imagens e até mesmo vídeos realistas se tornam disponíveis amplamente, os pesquisadores de desinformação têm levantado preocupações de que se tornará ainda mais difícil detectar e responder a informações falsas ou operações secretas de influência on-line. Centenas de milhões de pessoas votam em eleições em todo o mundo este ano, e os deepfakes de IA generativa já se proliferaram.

A OpenAI, o Google e outras empresas de IA têm trabalhado em tecnologia para identificar deepfakes feitos com suas próprias ferramentas, mas essa tecnologia ainda não foi comprovada. Alguns especialistas em IA acreditam que os detectores de deepfake nunca serão totalmente eficazes.

No início deste ano, um grupo afiliado ao Partido Comunista Chinês publicou um áudio gerado por IA de um candidato nas eleições de Taiwan supostamente endossando outro. Entretanto, o político, Terry Gou, proprietário da Foxconn, não endossou o outro político.

Em janeiro, os eleitores das primárias de New Hampshire, nos Estados Unidos, receberam um robocall que parecia ser do presidente Biden, mas que rapidamente se descobriu ser uma IA. Na semana passada, um agente democrata que disse ter encomendado a ligação automática foi indiciado sob a acusação de supressão de eleitores e de se passar por um candidato.

O relatório da OpenAI detalhou como os cinco grupos usaram a tecnologia da empresa em suas tentativas de operações de influência. O Spamouflage, um grupo anteriormente conhecido, originário da China, usou a tecnologia da OpenAI para pesquisar atividades nas mídias sociais e escrever publicações em chinês, coreano, japonês e inglês, informou a empresa. Um grupo iraniano conhecido como International Union of Virtual Media também usou a tecnologia da OpenAI para criar artigos que foram publicados em seu site.

Bad Grammar, o grupo até então desconhecido, usou a tecnologia da OpenAI para ajudar a criar um programa que pudesse publicar automaticamente no aplicativo de mensagens Telegram. Em seguida, o Bad Grammar usou a tecnologia da OpenAI para gerar postagens e comentários em russo e inglês, argumentando que os Estados Unidos não deveriam apoiar a Ucrânia, de acordo com o relatório.

O relatório também descobriu que uma empresa israelense de campanha política chamada Stoic usou a OpenAI para gerar postagens pró-Israel sobre a guerra de Gaza e direcioná-las a pessoas no Canadá, nos Estados Unidos e em Israel, disse a OpenAI. Na quarta-feira, a Meta, proprietária do Facebook, também divulgou o trabalho da Stoic, dizendo que removeu 510 contas do Facebook e 32 do Instagram usadas pelo grupo. Algumas das contas foram hackeadas, enquanto outras eram de pessoas fictícias, disse a empresa aos repórteres.

As contas em questão frequentemente comentavam em páginas de indivíduos conhecidos ou organizações de mídia, fazendo-se passar por estudantes universitários americanos pró-Israel, afroamericanos e outros. Os comentários apoiavam os militares israelenses e advertiam os canadenses de que o “Islã radical” ameaçava os valores liberais do país, disse Meta.

A IA entrou em ação na redação de alguns comentários, que pareceram estranhos e fora de contexto aos usuários reais do Facebook. A operação teve um desempenho ruim, segundo a empresa, atraindo apenas cerca de 2,6 mil seguidores legítimos.

A Meta agiu depois que o Digital Forensic Research Lab do Atlantic Council descobriu a rede enquanto acompanhava operações semelhantes identificadas por outros pesquisadores e publicações.

No ano passado, os pesquisadores de desinformação sugeriram que os chatbots de IA poderiam ser usados para manter conversas longas e detalhadas com pessoas específicas on-line, tentando influenciá-las em uma determinada direção. As ferramentas de IA também poderiam ingerir grandes quantidades de dados sobre indivíduos e adaptar mensagens diretamente a eles.

A OpenAI não encontrou nenhum desses usos mais sofisticados da IA, disse Nimmo. “É muito mais uma evolução do que uma revolução”, disse ele. “Nada disso quer dizer que talvez não vejamos isso no futuro.”

Joseph Menn contribuiu para esta reportagem.

Este conteúdo foi traduzido com o auxílio de ferramentas de Inteligência Artificial e revisado por nossa equipe editorial. Saiba mais em nossa Política de IA.

SAN FRANCISCO - A OpenAI, desenvolvedora do ChatGPT, disse nesta quinta-feira, 30, que flagrou grupos da Rússia, China, Irã e Israel usando sua tecnologia para tentar influenciar o discurso político em todo o mundo, destacando as preocupações de que a inteligência artificial (IA) generativa está facilitando a realização de campanhas secretas de propaganda por parte de agentes estatais, à medida que a eleição presidencial de 2024 se aproxima.

A OpenAI removeu contas associadas a operações de propaganda bem conhecidas na Rússia, China e Irã; uma empresa de campanha política israelense; e um grupo anteriormente desconhecido originário da Rússia que os pesquisadores da empresa apelidaram de “Bad Grammar”. Os grupos usaram a tecnologia da OpenAI para escrever publicações, traduzi-las para vários idiomas e criar um software que os ajudou a publicar automaticamente nas mídias sociais.

Nenhum desses grupos conseguiu obter muita força; as contas de mídia social associadas a eles alcançavam poucos usuários e tinham apenas um punhado de seguidores, disse Ben Nimmo, pesquisador principal da equipe de inteligência e investigações da OpenAI. Ainda assim, o relatório da OpenAI mostra que os propagandistas que estão ativos há anos nas mídias sociais estão usando a tecnologia de IA para impulsionar suas campanhas.

“Vimos que eles geram texto em um volume maior e com menos erros do que essas operações tradicionalmente gerenciam”, disse Nimmo, que trabalhou anteriormente na Meta (dona do Facebook, Instagram e WhatsApp) rastreando operações de influência, em uma conferência com a imprensa. Nimmo disse que é possível que outros grupos ainda estejam usando as ferramentas da OpenAI sem o conhecimento da empresa.

“Este não é o momento para complacência. A história mostra que as operações de influência que passaram anos sem conseguir chegar a lugar algum podem surgir de repente se ninguém estiver procurando por elas”, disse ele.

Governos, partidos políticos e grupos de ativistas têm usado as mídias sociais para tentar influenciar a política há anos. Após preocupações com a influência russa na eleição presidencial de 2016, as plataformas de mídia social começaram a prestar mais atenção em como seus sites estavam sendo usados para influenciar os eleitores. As empresas geralmente proíbem governos e grupos políticos de encobrir esforços conjuntos para influenciar os usuários, e os anúncios políticos devem exibir quem pagou por eles.

OpenAI é a empresa dona do ChatGPT Foto: Michael Dwyer/AP

À medida que as ferramentas de IA que podem gerar textos, imagens e até mesmo vídeos realistas se tornam disponíveis amplamente, os pesquisadores de desinformação têm levantado preocupações de que se tornará ainda mais difícil detectar e responder a informações falsas ou operações secretas de influência on-line. Centenas de milhões de pessoas votam em eleições em todo o mundo este ano, e os deepfakes de IA generativa já se proliferaram.

A OpenAI, o Google e outras empresas de IA têm trabalhado em tecnologia para identificar deepfakes feitos com suas próprias ferramentas, mas essa tecnologia ainda não foi comprovada. Alguns especialistas em IA acreditam que os detectores de deepfake nunca serão totalmente eficazes.

No início deste ano, um grupo afiliado ao Partido Comunista Chinês publicou um áudio gerado por IA de um candidato nas eleições de Taiwan supostamente endossando outro. Entretanto, o político, Terry Gou, proprietário da Foxconn, não endossou o outro político.

Em janeiro, os eleitores das primárias de New Hampshire, nos Estados Unidos, receberam um robocall que parecia ser do presidente Biden, mas que rapidamente se descobriu ser uma IA. Na semana passada, um agente democrata que disse ter encomendado a ligação automática foi indiciado sob a acusação de supressão de eleitores e de se passar por um candidato.

O relatório da OpenAI detalhou como os cinco grupos usaram a tecnologia da empresa em suas tentativas de operações de influência. O Spamouflage, um grupo anteriormente conhecido, originário da China, usou a tecnologia da OpenAI para pesquisar atividades nas mídias sociais e escrever publicações em chinês, coreano, japonês e inglês, informou a empresa. Um grupo iraniano conhecido como International Union of Virtual Media também usou a tecnologia da OpenAI para criar artigos que foram publicados em seu site.

Bad Grammar, o grupo até então desconhecido, usou a tecnologia da OpenAI para ajudar a criar um programa que pudesse publicar automaticamente no aplicativo de mensagens Telegram. Em seguida, o Bad Grammar usou a tecnologia da OpenAI para gerar postagens e comentários em russo e inglês, argumentando que os Estados Unidos não deveriam apoiar a Ucrânia, de acordo com o relatório.

O relatório também descobriu que uma empresa israelense de campanha política chamada Stoic usou a OpenAI para gerar postagens pró-Israel sobre a guerra de Gaza e direcioná-las a pessoas no Canadá, nos Estados Unidos e em Israel, disse a OpenAI. Na quarta-feira, a Meta, proprietária do Facebook, também divulgou o trabalho da Stoic, dizendo que removeu 510 contas do Facebook e 32 do Instagram usadas pelo grupo. Algumas das contas foram hackeadas, enquanto outras eram de pessoas fictícias, disse a empresa aos repórteres.

As contas em questão frequentemente comentavam em páginas de indivíduos conhecidos ou organizações de mídia, fazendo-se passar por estudantes universitários americanos pró-Israel, afroamericanos e outros. Os comentários apoiavam os militares israelenses e advertiam os canadenses de que o “Islã radical” ameaçava os valores liberais do país, disse Meta.

A IA entrou em ação na redação de alguns comentários, que pareceram estranhos e fora de contexto aos usuários reais do Facebook. A operação teve um desempenho ruim, segundo a empresa, atraindo apenas cerca de 2,6 mil seguidores legítimos.

A Meta agiu depois que o Digital Forensic Research Lab do Atlantic Council descobriu a rede enquanto acompanhava operações semelhantes identificadas por outros pesquisadores e publicações.

No ano passado, os pesquisadores de desinformação sugeriram que os chatbots de IA poderiam ser usados para manter conversas longas e detalhadas com pessoas específicas on-line, tentando influenciá-las em uma determinada direção. As ferramentas de IA também poderiam ingerir grandes quantidades de dados sobre indivíduos e adaptar mensagens diretamente a eles.

A OpenAI não encontrou nenhum desses usos mais sofisticados da IA, disse Nimmo. “É muito mais uma evolução do que uma revolução”, disse ele. “Nada disso quer dizer que talvez não vejamos isso no futuro.”

Joseph Menn contribuiu para esta reportagem.

Este conteúdo foi traduzido com o auxílio de ferramentas de Inteligência Artificial e revisado por nossa equipe editorial. Saiba mais em nossa Política de IA.

Atualizamos nossa política de cookies

Ao utilizar nossos serviços, você aceita a política de monitoramento de cookies.