Cientistas fazem abaixo-assinado contra armas biológicas geradas por IA

Acordo de mais de 90 cientistas afirma que os benefícios da inteligência artificial para o campo da biologia superariam qualquer dano potencial

PUBLICIDADE

Por Cade Metz (The New York Times )

Mais de 90 biólogos e outros cientistas especializados em tecnologias de inteligência artificial (IA) usadas para projetar novas proteínas - os mecanismos microscópicos que impulsionam todas as criações na biologia - assinaram um acordo que busca garantir que suas pesquisas auxiliadas por IA avancem sem expor o mundo a danos graves.

PUBLICIDADE

Os biólogos, que incluem a ganhadora do prêmio Nobel Frances Arnold e representam laboratórios nos EUA e em outros países, também argumentaram que as tecnologias mais recentes trariam muito mais benefícios do que negativos, incluindo novas vacinas e medicamentos.

Dario Amodei, executivo-chefe da Anthropic, uma das principais startups de IA no mundo, disse ao Congresso no ano passado que a nova tecnologia de IA poderia em breve ajudar pessoas não qualificadas, mas malévolas, a criar ataques biológicos em larga escala, como a liberação de vírus ou substâncias tóxicas que causam doenças e mortes generalizadas.

David Baker, da Universidade de Washington, disse que a regulamentação deve se concentrar nas ferramentas físicas que seriam necessárias para criar uma arma biológica Foto: Evan McGlinn/The New York Times

Senadores de ambos os partidos ficaram alarmados, enquanto pesquisadores de IA do setor e do meio acadêmico debatiam a gravidade da ameaça.

“Como cientistas envolvidos nesse trabalho, acreditamos que os benefícios das atuais tecnologias de IA para o design de proteínas superam em muito o potencial de danos e gostaríamos de garantir que nossa pesquisa continue sendo benéfica para todos no futuro”, diz o acordo.

Publicidade

O acordo não busca suprimir o desenvolvimento ou a distribuição de tecnologias de IA. Em vez disso, os biólogos pretendem regulamentar o uso de equipamentos necessários para a fabricação de novos materiais genéticos.

Esse equipamento de fabricação de DNA é, em última análise, o que permite o desenvolvimento de armas biológicas, disse David Baker, diretor do Institute for Protein Design da Universidade de Washington, que ajudou a conduzir o acordo.

“O design de proteínas é apenas a primeira etapa na produção de proteínas sintéticas”, disse ele em uma entrevista. “Depois, é preciso sintetizar o DNA e levar o projeto do computador para o mundo real, e esse é o local apropriado para a regulamentação.”

O acordo é um dos muitos esforços para pesar os riscos da IA em relação aos possíveis benefícios. Como alguns especialistas alertam que as tecnologias de IA podem ajudar a disseminar a desinformação, substituir empregos em um ritmo incomum e talvez até mesmo destruir a humanidade, as empresas de tecnologia, os laboratórios acadêmicos, os órgãos reguladores e os legisladores estão lutando para entender esses riscos e encontrar maneiras de lidar com eles.

A empresa de Amodei, a Anthropic, desenvolve grandes modelos de linguagem, ou LLMs, o novo tipo de tecnologia que impulsiona os chatbots online. Quando testemunhou perante o Congresso, ele argumentou que a tecnologia poderia em breve ajudar os invasores a criar novas armas biológicas.

Publicidade

Mas ele reconheceu que isso não era possível atualmente. Recentemente, a Anthropic realizou um estudo detalhado mostrando que, se alguém estivesse tentando adquirir ou projetar armas biológicas, os LLMs seriam um pouco mais úteis do que um mecanismo de busca comum na internet.

PUBLICIDADE

Amodei e outros preocupam-se com o fato de que, à medida que as empresas aprimorarem os LLMs e os combinarem com outras tecnologias, surgirá uma séria ameaça. Ele disse ao Congresso que isso está a apenas dois ou três anos de distância.

A OpenAI, fabricante do ChatGPT, realizou um estudo semelhante que mostrou que os LLMs não eram significativamente mais perigosos do que os mecanismos de busca. Aleksander Mądry, professor de ciência da computação do Instituto de Tecnologia de Massachusetts e chefe de preparação da OpenAI, disse que esperava que os pesquisadores continuassem a aprimorar esses sistemas, mas que ainda não tinha visto nenhuma evidência de que eles seriam capazes de criar novas armas biológicas.

Os LLMs atuais são criados por meio da análise de enormes quantidades de textos digitais coletados na Internet. Isso significa que eles regurgitam ou recombinam o que já está disponível on-line, inclusive informações existentes sobre ataques biológicos. e

Mas em um esforço para acelerar o desenvolvimento de novos medicamentos, vacinas e outros materiais biológicos úteis, os pesquisadores estão começando a criar sistemas de IA semelhantes que podem gerar novos designs de proteínas. Os biólogos dizem que essa tecnologia também poderia ajudar os agressores a projetar armas biológicas, mas eles ressaltam que a construção efetiva das armas exigiria um laboratório multimilionário, incluindo equipamentos de fabricação de DNA.

Publicidade

“Há alguns riscos que não exigem milhões de dólares em infraestrutura, mas esses riscos já existem há algum tempo e não estão relacionados à IA”, disse Andrew White, cofundador da organização sem fins lucrativos Future House e um dos biólogos que assinaram o acordo.

Os biólogos pediram o desenvolvimento de medidas de segurança que evitariam que os equipamentos de fabricação de DNA fossem usados com materiais nocivos - embora não esteja claro como essas medidas funcionariam. Eles também pediram revisões de segurança e proteção de novos modelos de IA antes de liberá-los.

Eles não argumentaram que as tecnologias deveriam ser engarrafadas.

“Essas tecnologias não devem ser detidas apenas por um pequeno número de pessoas ou organizações”, disse Rama Ranganathan, professor de bioquímica e biologia molecular da Universidade de Chicago, que também assinou o acordo. “A comunidade de cientistas deve ser capaz de explorá-las livremente e contribuir com elas.”

Este conteúdo foi traduzido com o auxílio de ferramentas de Inteligência Artificial e revisado por nossa equipe editorial. Saiba mais em nossa Política de IA.

Publicidade

Comentários

Os comentários são exclusivos para assinantes do Estadão.