A Comissão Federal de Comunicações (FCC) dos Estados Unidos proibiu na quinta-feira, 8, chamadas automáticas que contenham vozes geradas por inteligência artificial (IA), uma mensagem clara de que explorar a tecnologia para enganar pessoas e ludibriar eleitores não será tolerado.
A decisão unânime visa as chamadas automáticas feitas com ferramentas de clonagem de voz de IA sob o Telephone Consumer Protection Act, uma lei de 1991 que restringe chamadas indesejadas que utilizam mensagens de voz artificiais e pré-gravadas.
O anúncio aconteceu enquanto as autoridades de New Hampshire estão avançando em sua investigação sobre chamadas automáticas geradas por IA que imitaram a voz do presidente Joe Biden para desencorajar as pessoas de votar na primeira primária do Estado no mês passado.
Com efeito imediato, a regulamentação capacita a FCC a multar empresas que usam vozes de IA em suas chamadas ou bloquear os provedores de serviços que as transportam. Também abre a porta para os destinatários das chamadas entrarem com processos judiciais e dá aos procuradores-gerais dos estados um novo mecanismo para reprimir os infratores, segundo a FCC.
Fake news e extorsão
A presidente da Comissão Federal de Comunicações, Jessica Rosenworcel, disse que pessoas mal-intencionadas têm usado vozes geradas por IA em chamadas automáticas para desinformar eleitores, se passar por celebridades e extorquir familiares.
“São ameaças que parecem algo do futuro distante, mas já estão aqui”, disse Rosenworcel à Associated Press na quarta-feira, enquanto a comissão estava considerando as regulamentações. “Todos nós poderíamos ser alvo dessas chamadas falsas, e é por isso que sentimos que era hora de agir.”
Sob a lei de proteção ao consumidor, o telemarketing norte-americano geralmente não pode usar discadores automáticos ou mensagens de voz artificial ou pré-gravadas para ligar para celulares, e não podem fazer tais chamadas sem o consentimento prévio por escrito do destinatário da chamada.
A nova decisão classifica vozes geradas por IA em chamadas automáticas como “artificiais” e, portanto, aplicáveis pelos mesmos padrões, disse a FCC. Aqueles que quebrarem a lei podem enfrentar multas altas, com um máximo de mais de US$ 23 mil por chamada, disse a FCC.
Leia mais sobre inteligência artificial
“Verdadeiros vilões tendem a ignorar consequências”
A Comissão Federal de Comunicações já usou anteriormente a lei do consumidor para reprimir chamadas automáticas que interferiram em eleições, incluindo impondo uma multa de US$ 5 milhões a dois conservadores por falsamente alertar pessoas em áreas predominantemente negras de que votar pelo correio poderia aumentar o risco de prisão, cobrança de dívidas e vacinação forçada.
A lei também dá aos destinatários das chamadas o direito de tomar medidas legais e potencialmente recuperar até US$ 1.500 em danos por cada chamada indesejada. Josh Lawson, diretor de IA e democracia no Aspen Institute, disse que mesmo com a decisão da FCC, os eleitores devem se preparar para spam personalizado por telefone, mensagem de texto e mídias sociais.
“Os verdadeiros vilões tendem a ignorar as consequências e sabem que o que estão fazendo é ilegal”, disse ele. “Precisamos entender que os atores mal-intencionados continuarão a mexer com as coisas e a ultrapassar os limites.”
Kathleen Carley, professora da Carnegie Mellon especializada em desinformação computacional, disse que, para detectar o abuso de IA na tecnologia de voz, é necessário identificar claramente que o áudio foi gerado por IA.
Isso é possível agora, disse ela, “porque a tecnologia para gerar essas chamadas existe há algum tempo. É bem entendida e comete erros padrão. Mas essa tecnologia vai melhorar”. Ferramentas de IA geradoras sofisticadas, desde software de clonagem de voz até geradores de imagens, já estão em uso em eleições nos EUA e ao redor do mundo.
Leia mais sobre a eleição nos EUA
Eleição nos EUA
No ano passado, quando a corrida presidencial dos EUA começou, vários anúncios de campanha usaram áudio ou imagens geradas por IA, e alguns candidatos experimentaram o uso de chatbots de IA para se comunicar com os eleitores.
Esforços bipartidários no Congresso têm buscado regular a IA em campanhas políticas, mas nenhuma legislação federal foi aprovada, faltando nove meses para a eleição geral. A representante Yvette Clarke, que apresentou legislação para regular a IA na política, elogiou a decisão da FCC, mas disse que agora o Congresso precisa agir.
“Acredito que democratas e republicanos podem concordar que o conteúdo gerado por IA usado para enganar as pessoas é algo ruim, e precisamos trabalhar juntos para ajudar as pessoas a terem as ferramentas necessárias para discernir o que é real e o que não é”, disse Clarke, democrata de Nova York. As chamadas automáticas geradas por IA que buscaram influenciar a primária de 23 de janeiro em New Hampshire usaram uma voz semelhante à de Biden, empregaram sua frase frequentemente usada, “Que monte de bobagem”, e sugeriram falsamente que votar na primária impediria os eleitores de votarem em novembro.
“New Hampshire teve uma amostra de como a IA pode ser usada de forma inadequada no processo eleitoral”, disse o secretário de Estado de New Hampshire, David Scanlan. “É certamente apropriado tentar entender o uso e a aplicação para que não estejamos enganando a população eleitoral de uma forma que possa prejudicar nossas eleições.”
O procurador-geral do Estado, John Formella, disse na terça-feira que os investigadores identificaram a Life Corp., com sede no Texas, e seu proprietário, Walter Monk, como a fonte das chamadas, que foram para milhares de residentes do estado, principalmente democratas registrados. Ele disse que as chamadas foram transmitidas por outra empresa com sede no Texas, a Lingo Telecom. De acordo com a FCC, tanto a Lingo Telecom quanto a Life Corp. foram investigadas por chamadas automáticas ilegais no passado.
A Lingo Telecom disse em comunicado na terça-feira que “agiu imediatamente” para ajudar na investigação das chamadas automáticas que se passavam por Biden. A empresa disse que “não teve nenhum envolvimento na produção do conteúdo da ligação”. Um homem que atendeu a linha de negócios da Life Corp. se recusou a comentar na quinta-feira./AP
Este conteúdo foi traduzido com o auxílio de ferramentas de Inteligência Artificial e revisado por nossa equipe editorial. Saiba mais em nossa Política de IA.
Os comentários são exclusivos para assinantes do Estadão.