Os principais cientistas de IA do mundo estão pedindo aos governos mundiais que trabalhem juntos para regulamentar a tecnologia antes que seja tarde demais.
Três ganhadores do Prêmio Turing - basicamente o Prêmio Nobel de ciência da computação - que ajudaram a liderar a pesquisa e o desenvolvimento da IA, juntaram-se a uma dúzia de cientistas importantes de todo o mundo para assinar uma carta aberta que pedia a criação de melhores salvaguardas para o avanço da IA.
Os cientistas afirmaram que, à medida que a tecnologia de IA avança rapidamente, qualquer erro ou uso indevido pode trazer graves consequências para a raça humana.
“A perda do controle humano ou o uso malicioso desses sistemas de IA pode levar a resultados catastróficos para toda a humanidade”, escreveram os cientistas na carta. Eles também alertaram que, com o ritmo acelerado do desenvolvimento da IA, esses “resultados catastróficos” poderiam ocorrer a qualquer momento.
Os cientistas descreveram as seguintes etapas para começar a lidar imediatamente com o risco do uso malicioso da IA:
Órgãos governamentais de segurança de IA
Os governos precisam colaborar com as precauções de segurança da IA. Algumas das ideias dos cientistas incluem incentivar os países a desenvolver autoridades específicas de IA que respondam a “incidentes” e riscos de IA dentro de suas fronteiras. O ideal seria que essas autoridades cooperassem entre si e, a longo prazo, fosse criado um novo órgão internacional para impedir o desenvolvimento de modelos de IA que representem riscos para o mundo.
“Esse órgão garantiria que os estados adotassem e implementassem um conjunto mínimo de medidas eficazes de preparação para a segurança, incluindo registro de modelos, divulgação e armadilhas”, diz a carta.
Compromissos de segurança de IA do desenvolvedor
Outra ideia é exigir que os desenvolvedores tenham a intenção de garantir a segurança de seus modelos, prometendo que não ultrapassarão os limites. Os desenvolvedores se comprometeriam a não criar IA “que possa replicar, melhorar, buscar poder ou enganar seus criadores de forma autônoma, ou que permita a construção de armas de destruição em massa e a realização de ataques cibernéticos”, conforme estabelecido em uma declaração dos principais cientistas durante uma reunião em Pequim no ano passado.
Pesquisa independente e verificações tecnológicas sobre IA
Outra proposta é a criação de uma série de fundos globais de segurança e verificação de IA, financiados por governos, filantropos e empresas que patrocinariam pesquisas independentes para ajudar a desenvolver melhores verificações tecnológicas de IA.
Entre os especialistas que imploraram aos governos que agissem em relação à segurança da IA estavam três ganhadores do prêmio Turing, incluindo Andrew Yao, mentor de alguns dos empreendedores de tecnologia mais bem-sucedidos da China, Yoshua Bengio, um dos cientistas da computação mais citados do mundo, e Geoffrey Hinton, que ensinou o cofundador e ex-cientista-chefe da OpenAI, Ilya Sutskever, e que passou uma década trabalhando com aprendizado de máquina no Google.
Cooperação e ética em IA
Na carta, os cientistas elogiaram a cooperação internacional já existente sobre IA, como a reunião de maio entre os líderes dos EUA e da China em Genebra para discutir os riscos da IA. No entanto, eles disseram que é preciso mais cooperação.
O desenvolvimento da IA deve vir acompanhado de normas éticas para engenheiros, semelhantes às que se aplicam a médicos ou advogados, argumentam os cientistas. Os governos devem pensar na IA menos como uma nova e empolgante tecnologia e mais como um bem público global.
“Coletivamente, devemos nos preparar para evitar os riscos catastróficos que podem surgir a qualquer momento”, diz a carta.
Este conteúdo foi traduzido com o auxílio de ferramentas de Inteligência Artificial e revisado por nossa equipe editorial. Saiba mais em nossa Política de IA.
c.2024 Fortune Media IP Limited
Distribuído por The New York Times Licensing Group