Um estudo conduzido pelo Departamento de Ciência da Computação da Universidade de Oxford e publicado na Revista Nature testou a Inteligência Artificial (IA) em um de seus maiores problemas: a confiabilidade. A pesquisa inaugura uma nova forma eficaz de medir a probabilidade de uma IA “alucinar”, ou seja, produzir conteúdo enganoso ou inventado.
Depois da criação das inteligências artificiais generativas de texto, elas passaram a ser usadas como ferramenta para diversos tipos de trabalho, como criação de ideias de marketing, de respostas jurídicas, soluções de problemas matemáticos, geração de laudos médicos, etc. Apesar de ser prática, uma das maiores preocupações ao utilizar IA é a veracidade do conteúdo produzido, especialmente nas áreas em que a precisão é fundamental.
Um desafio para medir a confiabilidade da IA até o momento era a capacidade que essas ferramentas possuem para escrever uma mesma informação de inúmeras maneiras diferentes.
O método proposto pelo estudo, no entanto, supera esse obstáculo. A abordagem criada pelo grupo de Oxford analisa os significados do conteúdo pela inteligência artificial, e não a forma com que a ferramenta articula as palavras.
Leia mais:
A pesquisa mediu o nível de incerteza de uma IA para responder diferentes respostas: desde a resolução de problemas verbais de matemática, até questões técnicas biomédicas. Inteligências Artificiais como Chat GPT 4, LLama 2 e Gemini foram analisadas, e o método se provou muito eficaz.
Para isso, o grupo de pesquisadores fez um método baseado em estatística, que estima a incerteza - chamada de entropia semântica - com base na quantidade de variação. Assim, a ferramenta mede as probabilidades de uma palavra ser a próxima, considerando seu conteúdo.
Os pesquisadores chamam atenção, contudo, para o fato de que esse sistema mede apenas a probabilidade de erros semânticos, e não outros erros que as IAs podem cometer.
Os comentários são exclusivos para assinantes do Estadão.