Pesquisadores de IA pedem ‘credenciais de personalidade’ para diferenciar humanos de robôs na web

Estudo propõe um sistema pelo qual as pessoas provam offline que existem fisicamente como seres humanos

PUBLICIDADE

Por Will Oremus (The Washington Post)

Distinguir humanos de bots online já é difícil, como qualquer grande rede social poderia atestar. No entanto, sem maneiras melhores de fazer essa distinção, os avanços na inteligência artificial (IA) significam que os bots de IA poderão “dominar a internet” nos próximos anos, alertam pesquisadores do setor de tecnologia e do meio acadêmico em um novo estudo.

PUBLICIDADE

No artigo, publicado online na semana passada, mas ainda não revisado por pares, um grupo de 32 pesquisadores da OpenAI, Microsoft, Harvard e outras instituições pede que os tecnólogos e os formuladores de políticas desenvolvam novas maneiras de verificar os seres humanos sem sacrificar a privacidade ou o anonimato das pessoas. Eles propõem um sistema de “credenciais de personalidade” pelo qual as pessoas provam offline que existem fisicamente como seres humanos e recebem uma credencial criptografada que podem usar para fazer login em uma ampla gama de serviços online.

O artigo mostra líderes do setor e alguns acadêmicos com ideias semelhantes lançando as bases para um futuro que antes parecia coisa de ficção científica.

Autores argumentam que os sistemas existentes para provar a humanidade de alguém são cada vez mais “inadequados contra a IA sofisticada” Foto: Teresa Crawford/AP

No romance de Philip K. Dick, “Do Androids Dream of Electric Sheep? - adaptado para as telas como “Blade Runner” - as pessoas confiam em testes sofisticados para diferenciar humanos de “replicantes” de IA que andam e falam como pessoas. Ainda não chegamos lá: passar por humanos no mundo real é uma coisa que os bots atuais não conseguem fazer.

Mas os autores argumentam que os sistemas existentes para provar a humanidade de alguém, como exigir que os usuários enviem uma selfie ou resolvam um quebra-cabeça Captcha, são cada vez mais “inadequados contra a IA sofisticada”. Em um futuro próximo, acrescentam, até mesmo manter um bate-papo por vídeo com alguém pode não ser suficiente para saber se essa pessoa é a pessoa o que diz ser, outra pessoa que se disfarça com IA ou “até mesmo uma simulação completa de IA de uma pessoa real ou fictícia”.

Publicidade

Por outro lado, sistemas rígidos de verificação de identidade que vinculam as identidades das pessoas à sua atividade online correm o risco de comprometer a privacidade dos usuários e os direitos de liberdade de expressão, argumenta o documento. Em vez disso, os pesquisadores propõem que as credenciais de personalidade devem permitir que as pessoas interajam online de forma anônima, sem que suas atividades sejam rastreadas.

O artigo se encaixa em uma ideia na qual algumas pessoas do setor de tecnologia já estão trabalhando.

Em particular, a Worldcoin, a startup do CEO da OpenAI, Sam Altman, está escaneando as íris das pessoas em troca de um passaporte digital que verifica se elas são humanas e lhes dá direito a ações de uma criptomoeda. Ele apresentou o projeto como uma forma de defender a humanidade dos bots de IA e, ao mesmo tempo, possibilitar políticas econômicas como a renda básica universal para um futuro em que os empregos serão escassos. Mas os críticos são céticos em relação às promessas e aos motivos do projeto, dizendo que ele explorou pessoas pobres e vários governos nacionais o investigaram ou proibiram.

O artigo - cujos principais autores incluem os funcionários da OpenAI Steven Adler e Zoe Hitzig - afirma que “não é um endosso” da Worldcoin ou de qualquer outro sistema. Os pesquisadores argumentam que o ideal seria que houvesse mais de um sistema para verificar a personalidade, de modo que os usuários pudessem escolher e que nenhuma entidade tivesse muito controle.

Em uma declaração enviada por e-mail por um representante da OpenAI, Adler disse que o objetivo do artigo é estabelecer o valor das credenciais de personalidade em geral e, ao mesmo tempo, destacar os critérios e desafios de design que qualquer sistema desse tipo deve levar em conta.

Publicidade

Embora alguns especialistas concordem que sistemas de verificação melhores seriam úteis, eles discordam sobre a melhor forma de implementá-los e quem deve arcar com essa responsabilidade.

PUBLICIDADE

Um sistema do tipo descrito no artigo “seria extremamente útil” se bem feito, disse James Boyle, professor da Duke University School of Law e autor do livro “The Line: Artificial Intelligence and the Future of Personhood”. Mas, acrescentou ele, “um sistema perfeito de identificação também traz a possibilidade de coleta maciça de dados. Portanto, o diabo está nos detalhes”.

Embora potencialmente valiosa, a verificação da personalidade resolveria apenas um dos muitos problemas em um mundo repleto de agentes de IA sofisticados, disse Boyle. Se os sistemas de inteligência artificial puderem se passar por humanos de forma convincente, ele ponderou, presumivelmente eles também poderão contratar humanos para cumprir suas ordens.

Chris Gilliard, pesquisador independente de privacidade e estudioso de vigilância, disse que vale a pena perguntar por que o ônus deveria recair sobre os indivíduos para provar sua humanidade e não sobre as empresas de IA para evitar que seus bots se passem por humanos, como sugeriram alguns especialistas.

“Muitos desses esquemas são baseados na ideia de que a sociedade e os indivíduos terão que mudar seus comportamentos com base nos problemas introduzidos pelas empresas que colocam chatbots e grandes modelos de linguagem em tudo, em vez de as empresas fazerem mais para lançar produtos que sejam seguros”, disse Gilliard.

Publicidade

Este conteúdo foi traduzido com o auxílio de ferramentas de Inteligência Artificial e revisado por nossa equipe editorial. Saiba mais em nossa Política de IA.

Comentários

Os comentários são exclusivos para assinantes do Estadão.