Estudo sugere que seria impossível controlar uma IA ‘superinteligente’

Pesquisadores afirmam que uma IA sem limites seria matematicamente imprevisível

PUBLICIDADE

Foto do author Alice Labate

A chegada do chatbot de inteligência artificial (IA) da OpenAI, o ChatGPT, em novembro de 2022 gerou uma onda de desenvolvimento em IA, acirrando a disputa entre empresas gigantes da tecnologia, como a Meta, dona do Facebook, e o Google. Com tanto investimento, as IAs estão cada vez mais avançadas e realizando tarefas cada vez mais complexas, levantando uma questão importante: seria possível controlar uma IA superinteligente? Cientistas sugerem que não.

Em 2021, um grupo de pesquisadores europeus realizou um estudo para analisar a probabilidade de conter uma superinteligência artificial e a resposta foi não - a pesquisa foi realizada apesar do fato de um sistema do tipo não existir ainda. No entanto, reavaliando os resultados numéricos dessa pesquisa em 2023, a resposta continua sendo negativa. O estudo foi publicado no Journal of Artificial Intelligence Research.

Cientistas afirmam que uma IA superinteligente seria imprevisível e, consequentemente, impossível de controlar Foto: Gerd Altmann/Pixabay/Banco de imagem

PUBLICIDADE

Os autores do artigo, que são de seis universidades diferentes, como Universidade Autônoma de Madrid e Universidade da Califórnia, sugerem que regras como “não prejudicar os humanos” não podem ser aplicadas às maquinas caso não seja possível compreender o cenário criado pela própria IA. “Isso ocorre porque uma superinteligência é multifacetada e, portanto, potencialmente capaz de mobilizar uma diversidade de recursos para atingir objetivos potencialmente incompreensíveis para os humanos”, escreveram os cientistas em 2021.

Como base do raciocínio, os pesquisadores usaram o problema da parada, apresentado pelo matemático Alan Turing em 1936. Em resumo, problema tenta solucionar se um programa de computador é capaz de responder a uma pergunta - caso não consiga, o sistema trava ou entra em um loop, tentando encontrar uma resposta.

Publicidade

Sendo assim, existem dois caminhos que podem ser tomados por uma super IA ao ser programada para ela não causar danos aos humanos. Em um deles, a IA pode simplesmente compreender essa equação e “obedecer” ao pedido. O outro caminho é catastrófico: a máquina fica infinitamente tentando solucionar a equação, o que significa que ela nunca recebe o comando para não causar danos aos humanos.

Portanto, seria matematicamente impossível ter certeza da resposta da máquina, o que a torna imprevisível e incapaz de ser contida dependendo de suas respostas ao tentar “resolver” a equação.

A solução encontrada pelos autores para evitar perigos é limitar a capacidade das IAs. Apesar disso, o dilema apresentado no estudo de 2021 é que se a inteligência artificial for limitada não será possível resolver problemas que vão além do alcance humano e assim sua criação não teria utilidade.

Em março deste ano, grandes nomes na tecnologia como Elon Musk, dono da Tesla e do Twitter, e Emad Mostaque, CEO da Stability AI, assinaram uma carta aberta “anti-IA”, que pedia a pausa no desenvolvimento das IAs por seis meses para que a segurança pudesse ser avaliada.

Publicidade

*Alice Labate é estagiária sob supervisão do editor Bruno Romani

Comentários

Os comentários são exclusivos para assinantes do Estadão.