Qual é probabilidade de uma IA produzir conteúdo enganoso? Pesquisa foi atrás de respostas


Chat GPT 4, LLaMA 2 e Gemini foram testadas com um sistema que mede o nível de incerteza das respostas geradas

Por Milena Félix

Um estudo conduzido pelo Departamento de Ciência da Computação da Universidade de Oxford e publicado na Revista Nature testou a Inteligência Artificial (IA) em um de seus maiores problemas: a confiabilidade. A pesquisa inaugura uma nova forma eficaz de medir a probabilidade de uma IA “alucinar”, ou seja, produzir conteúdo enganoso ou inventado.

Depois da criação das inteligências artificiais generativas de texto, elas passaram a ser usadas como ferramenta para diversos tipos de trabalho, como criação de ideias de marketing, de respostas jurídicas, soluções de problemas matemáticos, geração de laudos médicos, etc. Apesar de ser prática, uma das maiores preocupações ao utilizar IA é a veracidade do conteúdo produzido, especialmente nas áreas em que a precisão é fundamental.

Um desafio para medir a confiabilidade da IA até o momento era a capacidade que essas ferramentas possuem para escrever uma mesma informação de inúmeras maneiras diferentes.

continua após a publicidade
ChatGPT foi uma das IAs testadas pela pesquisa de Oxford. Foto: Daniel CHETRONI/adobe.stock

O método proposto pelo estudo, no entanto, supera esse obstáculo. A abordagem criada pelo grupo de Oxford analisa os significados do conteúdo pela inteligência artificial, e não a forma com que a ferramenta articula as palavras.

continua após a publicidade

A pesquisa mediu o nível de incerteza de uma IA para responder diferentes respostas: desde a resolução de problemas verbais de matemática, até questões técnicas biomédicas. Inteligências Artificiais como Chat GPT 4, LLama 2 e Gemini foram analisadas, e o método se provou muito eficaz.

Para isso, o grupo de pesquisadores fez um método baseado em estatística, que estima a incerteza - chamada de entropia semântica - com base na quantidade de variação. Assim, a ferramenta mede as probabilidades de uma palavra ser a próxima, considerando seu conteúdo.

Os pesquisadores chamam atenção, contudo, para o fato de que esse sistema mede apenas a probabilidade de erros semânticos, e não outros erros que as IAs podem cometer.

Um estudo conduzido pelo Departamento de Ciência da Computação da Universidade de Oxford e publicado na Revista Nature testou a Inteligência Artificial (IA) em um de seus maiores problemas: a confiabilidade. A pesquisa inaugura uma nova forma eficaz de medir a probabilidade de uma IA “alucinar”, ou seja, produzir conteúdo enganoso ou inventado.

Depois da criação das inteligências artificiais generativas de texto, elas passaram a ser usadas como ferramenta para diversos tipos de trabalho, como criação de ideias de marketing, de respostas jurídicas, soluções de problemas matemáticos, geração de laudos médicos, etc. Apesar de ser prática, uma das maiores preocupações ao utilizar IA é a veracidade do conteúdo produzido, especialmente nas áreas em que a precisão é fundamental.

Um desafio para medir a confiabilidade da IA até o momento era a capacidade que essas ferramentas possuem para escrever uma mesma informação de inúmeras maneiras diferentes.

ChatGPT foi uma das IAs testadas pela pesquisa de Oxford. Foto: Daniel CHETRONI/adobe.stock

O método proposto pelo estudo, no entanto, supera esse obstáculo. A abordagem criada pelo grupo de Oxford analisa os significados do conteúdo pela inteligência artificial, e não a forma com que a ferramenta articula as palavras.

A pesquisa mediu o nível de incerteza de uma IA para responder diferentes respostas: desde a resolução de problemas verbais de matemática, até questões técnicas biomédicas. Inteligências Artificiais como Chat GPT 4, LLama 2 e Gemini foram analisadas, e o método se provou muito eficaz.

Para isso, o grupo de pesquisadores fez um método baseado em estatística, que estima a incerteza - chamada de entropia semântica - com base na quantidade de variação. Assim, a ferramenta mede as probabilidades de uma palavra ser a próxima, considerando seu conteúdo.

Os pesquisadores chamam atenção, contudo, para o fato de que esse sistema mede apenas a probabilidade de erros semânticos, e não outros erros que as IAs podem cometer.

Um estudo conduzido pelo Departamento de Ciência da Computação da Universidade de Oxford e publicado na Revista Nature testou a Inteligência Artificial (IA) em um de seus maiores problemas: a confiabilidade. A pesquisa inaugura uma nova forma eficaz de medir a probabilidade de uma IA “alucinar”, ou seja, produzir conteúdo enganoso ou inventado.

Depois da criação das inteligências artificiais generativas de texto, elas passaram a ser usadas como ferramenta para diversos tipos de trabalho, como criação de ideias de marketing, de respostas jurídicas, soluções de problemas matemáticos, geração de laudos médicos, etc. Apesar de ser prática, uma das maiores preocupações ao utilizar IA é a veracidade do conteúdo produzido, especialmente nas áreas em que a precisão é fundamental.

Um desafio para medir a confiabilidade da IA até o momento era a capacidade que essas ferramentas possuem para escrever uma mesma informação de inúmeras maneiras diferentes.

ChatGPT foi uma das IAs testadas pela pesquisa de Oxford. Foto: Daniel CHETRONI/adobe.stock

O método proposto pelo estudo, no entanto, supera esse obstáculo. A abordagem criada pelo grupo de Oxford analisa os significados do conteúdo pela inteligência artificial, e não a forma com que a ferramenta articula as palavras.

A pesquisa mediu o nível de incerteza de uma IA para responder diferentes respostas: desde a resolução de problemas verbais de matemática, até questões técnicas biomédicas. Inteligências Artificiais como Chat GPT 4, LLama 2 e Gemini foram analisadas, e o método se provou muito eficaz.

Para isso, o grupo de pesquisadores fez um método baseado em estatística, que estima a incerteza - chamada de entropia semântica - com base na quantidade de variação. Assim, a ferramenta mede as probabilidades de uma palavra ser a próxima, considerando seu conteúdo.

Os pesquisadores chamam atenção, contudo, para o fato de que esse sistema mede apenas a probabilidade de erros semânticos, e não outros erros que as IAs podem cometer.

Um estudo conduzido pelo Departamento de Ciência da Computação da Universidade de Oxford e publicado na Revista Nature testou a Inteligência Artificial (IA) em um de seus maiores problemas: a confiabilidade. A pesquisa inaugura uma nova forma eficaz de medir a probabilidade de uma IA “alucinar”, ou seja, produzir conteúdo enganoso ou inventado.

Depois da criação das inteligências artificiais generativas de texto, elas passaram a ser usadas como ferramenta para diversos tipos de trabalho, como criação de ideias de marketing, de respostas jurídicas, soluções de problemas matemáticos, geração de laudos médicos, etc. Apesar de ser prática, uma das maiores preocupações ao utilizar IA é a veracidade do conteúdo produzido, especialmente nas áreas em que a precisão é fundamental.

Um desafio para medir a confiabilidade da IA até o momento era a capacidade que essas ferramentas possuem para escrever uma mesma informação de inúmeras maneiras diferentes.

ChatGPT foi uma das IAs testadas pela pesquisa de Oxford. Foto: Daniel CHETRONI/adobe.stock

O método proposto pelo estudo, no entanto, supera esse obstáculo. A abordagem criada pelo grupo de Oxford analisa os significados do conteúdo pela inteligência artificial, e não a forma com que a ferramenta articula as palavras.

A pesquisa mediu o nível de incerteza de uma IA para responder diferentes respostas: desde a resolução de problemas verbais de matemática, até questões técnicas biomédicas. Inteligências Artificiais como Chat GPT 4, LLama 2 e Gemini foram analisadas, e o método se provou muito eficaz.

Para isso, o grupo de pesquisadores fez um método baseado em estatística, que estima a incerteza - chamada de entropia semântica - com base na quantidade de variação. Assim, a ferramenta mede as probabilidades de uma palavra ser a próxima, considerando seu conteúdo.

Os pesquisadores chamam atenção, contudo, para o fato de que esse sistema mede apenas a probabilidade de erros semânticos, e não outros erros que as IAs podem cometer.

Um estudo conduzido pelo Departamento de Ciência da Computação da Universidade de Oxford e publicado na Revista Nature testou a Inteligência Artificial (IA) em um de seus maiores problemas: a confiabilidade. A pesquisa inaugura uma nova forma eficaz de medir a probabilidade de uma IA “alucinar”, ou seja, produzir conteúdo enganoso ou inventado.

Depois da criação das inteligências artificiais generativas de texto, elas passaram a ser usadas como ferramenta para diversos tipos de trabalho, como criação de ideias de marketing, de respostas jurídicas, soluções de problemas matemáticos, geração de laudos médicos, etc. Apesar de ser prática, uma das maiores preocupações ao utilizar IA é a veracidade do conteúdo produzido, especialmente nas áreas em que a precisão é fundamental.

Um desafio para medir a confiabilidade da IA até o momento era a capacidade que essas ferramentas possuem para escrever uma mesma informação de inúmeras maneiras diferentes.

ChatGPT foi uma das IAs testadas pela pesquisa de Oxford. Foto: Daniel CHETRONI/adobe.stock

O método proposto pelo estudo, no entanto, supera esse obstáculo. A abordagem criada pelo grupo de Oxford analisa os significados do conteúdo pela inteligência artificial, e não a forma com que a ferramenta articula as palavras.

A pesquisa mediu o nível de incerteza de uma IA para responder diferentes respostas: desde a resolução de problemas verbais de matemática, até questões técnicas biomédicas. Inteligências Artificiais como Chat GPT 4, LLama 2 e Gemini foram analisadas, e o método se provou muito eficaz.

Para isso, o grupo de pesquisadores fez um método baseado em estatística, que estima a incerteza - chamada de entropia semântica - com base na quantidade de variação. Assim, a ferramenta mede as probabilidades de uma palavra ser a próxima, considerando seu conteúdo.

Os pesquisadores chamam atenção, contudo, para o fato de que esse sistema mede apenas a probabilidade de erros semânticos, e não outros erros que as IAs podem cometer.

Atualizamos nossa política de cookies

Ao utilizar nossos serviços, você aceita a política de monitoramento de cookies.