Em seis meses, o ChatGPT passou de “serviço mais empolgante da internet” para “a trombeta que anuncia o apocalipse tecnológico”. A sagacidade com as palavras exibida pela ferramenta da OpenAI jogou luz sobre todo o campo da inteligência artificial (IA), mas também passou a gerar temores que pareciam reservados aos grandes clichês da ficção científica. Para muita gente, a questão do momento é: será que devemos ter medo da inteligência artificial?
A resposta não é tão simples. Talvez, o futuro distópico imaginado por filmes como “O Exterminador do Futuro” e “Matrix”, de máquinas autoconscientes, fique confinado às telas do cinema - ainda bem. Mas isso não significa que o desenvolvimento e os usos atuais da tecnologia não sejam problemáticos.
Leia também
Para deixar a discussão ainda mais turva, há duas semanas uma carta de notáveis, incluindo o bilionário Elon Musk, o antropólogo Yuval Noah Harari e o pioneiro em IA Yoshua Bengio, pediu uma pausa de seis meses no desenvolvimento de IA. Entre as afirmações do documento estão a de que “laboratórios de IA estão presos em uma corrida fora de controle para desenvolver e implementar mentes digitais superpoderosas que ninguém - nem mesmo seus criadores - podem entender, prever ou controlar de forma confiável”. Mais de 24 mil pessoas já assinaram o documento.
Também não ajuda o fato de que Sam Altman, fundador da OpenAI, repete constantemente seu desejo de construir uma inteligência artificial geral (AGI, na sigla em inglês) - um sistema com capacidade sobrehumana em múltiplas tarefas, algo que não existe no mundo real, mas que é retratado com frequência na ficção. A OpenAI publicou em seu site um documento no qual discute a preparação necessária para o desenvolvimento de uma AGI.
Já Geoffrey Hinton, autor de AlexNet, artigo de 2012 fundamental para a atual revolução da IA, disse em entrevista à CBS News que, antes do ChatGPT, acreditava que uma AGI seria possível entre 20 e 50 anos, mas que sua estimativa agora tinha caído para menos de 20 anos. Perguntado se acreditava que a IA pode dizimar a humanidade, ele disse: “Não é inconcebível. Isso é tudo o que vou dizer”.
Outros dois fatores acenderam a luz amarela em relação à capacidade dos sistemas de IA. “O temor surgiu porque a tecnologia caminha para dominar aquilo que a gente achava que pertencia ao ser humano: a linguagem”, diz ao Estadão Luis Lamb, professor da Universidade Federal do Rio Grande do Sul (UFRGS).
Isso se soma ao fato de que as pessoas costumam projetar qualidades humanas a elementos não-humanos, como objetos e animais. A tendência, chamada antropomorfismo, passou a enxergar no ChatGPT um ser pensante, ainda que a ferramenta seja apenas um modelo matemático probabilístico para gerar palavras - especialistas acreditam que o antropomorfismo acaba alimentando o medo irracional.
“A carta ‘anti-IA’ gera mais debate alarmista do que discussões responsáveis sobre o tema”, afirma Tarcizio Silva, especialista em ética e IA da Fundação Mozilla.
A carta ‘anti-IA’ gera mais debate alarmista do que discussões responsáveis sobre o tema
Tarcizio Silva, especialista em ética e IA da Fundação Mozilla
Superinteligência é ficção
De fato, embora uma parcela de pesquisadores de IA tenha assinado a carta - alimentando o medo sobre a tecnologia -, outra parcela vem se dedicando a apagar a fogueira. “Nós dramaticamente superestimamos a ameaça de uma tomada de controle acidental por uma IA, porque tendemos a confundir inteligência com a necessidade de atingir dominação”, escreveram na Scientific American Anthony Zador, neurocientista do laboratório Cold Spring Harbor, e Yann LeCun, pioneiro da IA e ganhador do Prêmio Turing de 2018 (principal prêmio da computação).
“Em IA, inteligência e sobrevivência estão separados, então a inteligência pode servir a quaisquer objetivos que a gente determina”, completam. LeCun, por exemplo, afirma que máquinas superinteligentes não são apenas uma realidade distante, como sempre serão desenvolvidas para servir humanos.
Desde início um crítico do ChatGPT (por considerar que a ferramenta não faz nada inovador), LeCun afirmou em um debate pelo Facebook: “No improvável cenário de que isso fracasse, existe uma lista de soluções para nos proteger de uma catástrofe”, diz. Ele, por exemplo, diz que é possível ter sistemas de neutralização de máquinas que saiam do controle. Ainda assim, ele compara esse tipo de debate com filosofar sobre o sexo dos anjos.
Mais pé no chão ainda é Timnit Gebru, especialista em ética e IA, que foi mandada embora do Google em 2020 após questionar as práticas da empresa. No ano seguinte, ela publicou um estudo considerado fundamental, chamado “Papagaios Estocásticos”. Nele, ela tenta desmistificar a capacidade de modelos amplos de linguagem (como o GPT) e aponta para os problemas que causam na sociedade. A carta “anti-IA” citou o estudo, o que enfureceu sua autora.
Em nota, o instituto fundado por ela (Distributed Artificial Intelligence Research Institute, ou DAIR) escreveu: “A linguagem da carta infla a capacidade de sistemas autônomos e os antropomorfiza, confundindo as pessoas sobre a existência de um ser consciente por trás de mídia sintética. Isso não apenas convence as pessoas a confiar de forma acrítica o conteúdo de sistemas como o ChatGPT, como atribui erroneamente a atuação. A responsabilidade não está com os objetos, mas sim seus criadores”.
Emily Bender, professora da Universidade de Washington e coautora do estudo, afirmou em seu Twitter: “Nenhum laboratório de IA já desenvolveu ou está no processo de desenvolver uma mente digital”.
As verdadeiras ameaças da inteligência artificial
Embora os perigos de seres sintéticos sejam bastante improváveis, isso não significa que sistemas de IA não possam causar problemas importantes no curtíssimo prazo. Um estudo recente do Goldman Sachs estima que 300 milhões de empregos no mundo serão afetados pela IA - e dezenas de milhões de pessoas serão expulsas do mercado de trabalho.
Já a Europol publicou um relatório no qual afirma que sistemas de IA poderão ser usados para crimes como fraude, golpes, violações digitais e ciberataques. Ou seja, não é necessário que IAs sejam conscientes para alterarem o mundo, mas o uso que humanos fazem disso geram riscos para o bem-estar global.
Leia também
“As atuais tecnologias de IA buscam escala e isso está ligado à concentração econômica, que não leva em consideração o papel social das empresas. A eliminação de empregos em escala não é apenas ruim pela perda de postos de trabalho, mas também por colocar mais atribuições ao consumidor”, explica Silva, da Mozilla.
Outros problemas gerados por sistemas de IA são exploração de trabalhadores e roubo de dados na criação de sistemas, discriminação por algoritmos, violação de direitos autorais, proliferação de desinformação, perda de privacidade e armas automatizadas de guerra. Tudo isso é desenvolvido de forma concentrada.
“O que me preocupa é que essa tecnologia é dominada por poucas empresas. Quem dominá-la terá uma importância econômica significativa. E o Brasil não acordou para isso”, argumenta Lamb, da UFRGS.
Junto com o domínio desses sistemas, há também a preocupação com a falta de transparência no desenvolvimento. Empresas como a OpenAI e o Google não abrem os detalhes ou revelam os dados usados no treinamento dos seus sistemas de IA.
“Precisamos de regulação que reforce a transparência. Não apenas deveria apenas ficar claro quando encontramos mídia sintética, mas as organizações criando esses sistemas deveriam ter que documentar e revelar seus dados de treinamento e suas arquiteturas de modelos”, diz a nota do DAIR. “O ônus de criar ferramentas seguras deveria estar com as companhias que constroem e aplicam esses sistemas”.
Precisamos de regulação que reforce a transparência. Não apenas deveria apenas ficar claro quando encontramos mídia sintética, mas as organizações criando esses sistemas deveriam ter que documentar e revelar seus dados de treinamento e suas arquiteturas de modelos
Distributed Artificial Intelligence Research Institute
Assim, o caminho por regulação começa a se formar em diferentes países. Europa, Brasil e até os Estados Unidos - que normalmente ignoram controles sobre a tecnologia - estão debatendo formas de regular a IA, enquanto ela se desenvolve. Segundo um estudo da Universidade Stanford, 37 legislações em 127 países envolvendo os termos “inteligência artificial” foram identificados no ano passado - em 2016, só havia uma.
O desafio de especialistas e autoridades é acompanhar a tecnologia com a mesma velocidade do desenvolvimento sem cair em discursos alarmistas.
Em um artigo para a revista Wired, Sasha Luccioni, pesquisadora da startup de IA Hugging Face, resumiu o atual status da tecnologia, ajudando a direcionar quais medos devem ser levados a sério: “Não é tarde para mudar a narrativa da superIA, para começar a questionar as capacidades e limitações desses sistemas e nem para exigir responsabilidade e transparência”.
O futuro distópico, ao menos ainda, não chegou.
Os comentários são exclusivos para assinantes do Estadão.