Desde as pedras lascadas os humanos produzem com sua inteligência ferramentas que ampliam suas capacidades e transformam o mundo. Mas o que acontece quando se criam máquinas que reproduzem a própria inteligência? O que acontecerá quando uma “superinteligência” puder solucionar qualquer tarefa cognitiva melhor e mais rápido? Utopias e distopias despontam. Será o maior evento na história humana – mas pode ser o último. A criatura poderá entregar soluções para erradicar a pobreza, o aquecimento global, guerras, doenças, a própria morte – ou pode subjugar seus criadores como animais de estimação e até exterminá-los.
Temores apocalípticos do tipo “Exterminador do Futuro” proliferam no reino da fantasia há décadas. Na última, lideranças científicas e tecnológicas começaram a lançar alertas. “Quem se tornar o líder (na Inteligência Artificial – IA) dominará o mundo”, disse não um supervilão cinematográfico, mas Vladimir Putin. O futuro se lembrará de 2023 como o momento “Sputnik” da IA. Tão rápido quanto algoritmos como o ChatGPT viralizaram em tablets nas mãos dos humanos, o medo invadiu seus corações.
“Devemos permitir que máquinas inundem nossos canais de informação com propaganda e falsidades?”, indaga um manifesto assinado por luminares da ciência e tecnologia, pedindo uma “pausa” no desenvolvimento da IA. “Devemos automatizar todos os empregos, incluindo os que nos satisfazem? Devemos desenvolver mentes não humanas que podem nos superar em número, cognição, nos tornar obsoletos e nos substituir? Devemos arriscar perder o controle da nossa civilização?” Uma advertência do Center for AI Safety, subscrita por CEOs e programadores de empresas-líderes em IA – como Google e OpenAI –, resumiu tudo: “Mitigar o risco de extinção da IA deve ser uma prioridade global junto com outros riscos em escala social como pandemias e guerra nuclear”.
Tecnicamente, essa mitigação é conhecida como o “problema do alinhamento”: é preciso alinhar os objetivos da IA com os nossos antes que ela se torne “superinteligente”. Há os riscos da malevolência humana – IAs programadas para algo devastador – e os da competência das máquinas – IAs programadas para uma meta benéfica, mas que desenvolvem métodos destrutivos para atingi-la.
Há consensos sobre princípios que devem nortear o desenvolvimento de máquinas inteligentes, como confiabilidade, transparência, privacidade ou imparcialidade. Alguns podem ser materializados em leis agora mesmo. Por exemplo, ninguém jamais deveria fazer com que robôs se passem por humanos nem empregá-los em áreas críticas como saúde, o sistema judicial e o setor militar sem a pré-aprovação do Poder Público e a garantia de humanos responsáveis pela decisão final. Outros exigirão deliberações entre governos, empresas de tecnologia, ONGs, academia e a sociedade civil como um todo. Nenhuma solução será definitivamente satisfatória se não for global. Felizmente, há precedentes, como os controles de armas nucleares ou da engenharia genética.
Mais do que frear o desenvolvimento técnico da IA, é preciso acelerar a busca por sua segurança. De resto, é preciso alinhar as expectativas. Nenhuma tecnologia jamais fez ou fará um milímetro de diferença se não for superado o supremo desafio humano de usar o conhecimento não para alimentar o egoísmo e a destruição, mas para estimular a solidariedade e a inteligência. “Onde está a sabedoria que perdemos no conhecimento? Onde está o conhecimento que perdemos na informação?”, perguntou-se T.S. Eliot. Nós criamos máquinas capazes de computar quantidades ilimitadas de informação e estamos criando máquinas superprodutoras de conhecimento. Os benefícios potenciais da Inteligência Artificial são imensos, já que tudo o que amamos na civilização é um produto da inteligência. Mas tudo estará perdido se não formos capazes de dominá-la com sabedoria.