THE NEW YORK TIMES — As empresas de inteligência artificial (IA) têm estado na vanguarda do desenvolvimento dessa tecnologia transformadora. Agora, elas também estão correndo para estabelecer limites sobre como a IA é usada em um ano repleto de eleições importantes em todo o mundo.
No mês passado, a OpenAI, desenvolvedora do chatbot ChatGPT, disse que estava trabalhando para evitar o abuso de suas ferramentas nas eleições, em parte proibindo seu uso para criar chatbots que fingem ser pessoas ou instituições reais. Nas últimas semanas, o Google também disse que limitaria seu chatbot de IA, o Bard, de responder a determinadas solicitações relacionadas às eleições “por excesso de cautela”. E a Meta, proprietária do Facebook e do Instagram, prometeu rotular melhor o conteúdo gerado por IA em suas plataformas para que os eleitores possam discernir mais facilmente qual material é real e qual é falso.
Na sexta-feira, 20 empresas de tecnologia (incluindo Adobe, Amazon, Anthropic, Google, Meta, Microsoft, OpenAI, TikTok e X) assinaram um compromisso voluntário para ajudar a evitar que conteúdo enganoso de IA atrapalhe a votação em 2024. O acordo, anunciado na Conferência de Segurança de Munique, incluiu o compromisso das empresas de colaborar com ferramentas de detecção de IA e outras ações, mas não exigiu a proibição de conteúdo de IA relacionado a eleições.
A Anthrophic também disse separadamente na sexta-feira que proibiria que sua tecnologia fosse aplicada a campanhas políticas ou lobby. Em um post de blog, a empresa, que produz um chatbot chamado Claude, disse que advertiria ou suspenderia qualquer usuário que violasse suas regras. Ela acrescentou que estava usando ferramentas treinadas para detectar e bloquear automaticamente a desinformação e influenciar as operações.
“A história da implantação da IA também tem sido cheia de surpresas e efeitos inesperados”, disse a empresa. “Esperamos que em 2024 haja usos surpreendentes dos sistemas de IA - usos que não foram previstos por seus próprios desenvolvedores.”
Os esforços fazem parte de um esforço das empresas de IA para controlar uma tecnologia que popularizaram à medida que bilhões de pessoas se dirigem às urnas. Pelo menos 83 eleições em todo o mundo, a maior concentração pelo menos nos próximos 24 anos, estão previstas para este ano, de acordo com a Anchor Change, uma empresa de consultoria. Nas últimas semanas, pessoas em Taiwan, no Paquistão e na Indonésia votaram, e a Índia, a maior democracia do mundo, deverá realizar suas eleições gerais na primavera.
Não se sabe ao certo qual será a eficácia das restrições às ferramentas de IA, principalmente porque as empresas estão avançando com tecnologias cada vez mais sofisticadas. Na quinta-feira, a OpenAI apresentou a Sora, uma tecnologia que pode gerar instantaneamente vídeos realistas. Essas ferramentas poderiam ser usadas para produzir texto, sons e imagens em campanhas políticas, confundindo fato e ficção e levantando questões sobre se os eleitores podem dizer qual conteúdo é real.
O conteúdo gerado por IA já apareceu em campanhas políticas nos Estados Unidos, o que provocou reações regulatórias e legais. Alguns legisladores estaduais estão elaborando projetos de lei para regulamentar o conteúdo político gerado por IA.
No mês passado, os residentes de New Hampshire receberam mensagens de robocall dissuadindo-os de votar nas primárias do Estado com uma voz que provavelmente foi gerada artificialmente para soar como a do presidente americano Joe Biden. Na semana passada, a Comissão Federal de Comunicações (FTC) proibiu essas ligações.
“Os malfeitores estão usando vozes geradas por IA em ligações automáticas não solicitadas para extorquir membros vulneráveis da família, imitar celebridades e desinformar os eleitores”, disse Jessica Rosenworcel, presidente da F.C.C., na época.
As ferramentas de IA também criaram retratos enganosos ou enganosos de políticos e tópicos políticos na Argentina, Austrália, Grã-Bretanha e Canadá. Na semana passada, o ex-primeiro-ministro Imran Khan, cujo partido conquistou o maior número de cadeiras nas eleições do Paquistão, usou uma voz de IA para declarar vitória enquanto estava na prisão.
Em um dos ciclos eleitorais mais importantes de que se tem memória, a desinformação e os enganos que a I.A. pode criar podem ser devastadores para a democracia, disseram os especialistas.
“Estamos atrás da bola oito aqui”, disse Oren Etzioni, professor da Universidade de Washington, especialista em inteligência artificial e fundador da True Media, uma organização sem fins lucrativos que trabalha para identificar a desinformação on-line em campanhas políticas. “Precisamos de ferramentas para responder a isso em tempo real”.
A Anthropic disse em seu anúncio na sexta-feira que estava planejando testes para identificar como seu chatbot Claude poderia produzir conteúdo tendencioso ou enganoso relacionado a candidatos políticos, questões políticas e administração eleitoral. Esses testes de “equipe vermelha”, que geralmente são usados para romper as proteções de uma tecnologia para identificar melhor suas vulnerabilidades, também explorarão como a IA responde a consultas prejudiciais, como solicitações de táticas de supressão de eleitores.
Nas próximas semanas, a Anthropic também está lançando um teste que visa redirecionar os usuários dos EUA que tenham consultas relacionadas a votações para fontes confiáveis de informações, como o TurboVote, da Democracy Works, um grupo apartidário sem fins lucrativos. A empresa disse que seu modelo de IA não foi treinado com frequência suficiente para fornecer, de forma confiável, fatos em tempo real sobre eleições específicas.
Da mesma forma, a OpenAI disse no mês passado que planejava indicar às pessoas informações sobre votação por meio do ChatGPT, bem como rotular imagens geradas por IA.
“Como qualquer nova tecnologia, essas ferramentas trazem benefícios e desafios”, disse a OpenAI em uma publicação no blog. “Elas também não têm precedentes, e continuaremos evoluindo nossa abordagem à medida que aprendermos mais sobre como nossas ferramentas são usadas.”
(O New York Times processou a OpenAI e sua parceira, a Microsoft, em dezembro, alegando violação de direitos autorais de conteúdo de notícias relacionadas a sistemas de IA).
Leia mais
A Synthesia, uma startup com um gerador de vídeo de IA que tem sido associada a campanhas de desinformação, também proíbe o uso da tecnologia para “conteúdo semelhante a notícias”, incluindo material falso, polarizador, divisivo ou enganoso. A empresa aprimorou os sistemas que utiliza para detectar o uso indevido de sua tecnologia, disse Alexandru Voica, chefe de assuntos e políticas corporativas da Synthesia.
A Stability AI, uma startup com uma ferramenta de geração de imagens, disse que proibiu o uso de sua tecnologia para fins ilegais ou antiéticos, trabalhou para bloquear a geração de imagens inseguras e aplicou uma marca d’água imperceptível em todas as imagens.
As maiores empresas de tecnologia também se manifestaram além da promessa conjunta feita em Munique na sexta-feira.
Na semana passada, a Meta também disse que estava colaborando com outras empresas em padrões tecnológicos para ajudar a reconhecer quando o conteúdo era gerado com inteligência artificial. Antes das eleições parlamentares da União Europeia em junho, o TikTok disse em um post de blog na quarta-feira que proibiria conteúdo manipulado potencialmente enganoso e exigiria que os usuários rotulassem criações realistas de I.A.
O Google disse em dezembro que também exigiria que os criadores de vídeos no YouTube e todos os anunciantes eleitorais divulgassem conteúdo digitalmente alterado ou gerado. A empresa disse que estava se preparando para as eleições de 2024, restringindo suas ferramentas de IA, como o Bard, de retornar respostas para determinadas consultas relacionadas às eleições.
“Como qualquer tecnologia emergente, a IA apresenta novas oportunidades e também desafios”, disse o Google. A IA pode ajudar a combater o abuso, acrescentou a empresa, “mas também estamos nos preparando para como ela pode mudar o cenário da desinformação”.
Este conteúdo foi traduzido com o auxílio de ferramentas de Inteligência Artificial e revisado por nossa equipe editorial. Saiba mais em nossa Política de IA.