PUBLICIDADE

OpenAI cria recurso que detecta texto gerado por IA, mas teme que isso ‘espante’ usuários do ChatGPT

Ferramenta que detecta uso de inteligência artificial em textos está pronta há cerca de um ano

PUBLICIDADE

Foto do author Mariana Cury
Por Mariana Cury

A OpenAI, empresa dona do ChatGPT, estuda a possibilidade de implementar uma marca d’água em textos criados pelo chatbot. A ferramenta, que permitiria saber se o texto foi produzido por inteligência artificial (IA), está pronta há cerca de um ano, mas divide opiniões internas na empresa. As informações foram divulgadas pelo The Wall Street Journal.

O sistema de detecção seria invisível aos olhos. Ou seja, o usuário não conseguiria ver que existe um “alerta de IA” em seu texto, mas a ferramenta conseguiria detectar o uso de inteligência artificial na produção. De acordo com a OpenAI, esse detector é 99,9% eficiente e não interferiria na qualidade dos textos criados pelo chatbot.

A decisão da implementação da nova tecnologia ainda é incerta Foto: Daniel CHETRONI/adobe.stock

PUBLICIDADE

Segundo uma pesquisa realizada pela empresa, cerca de 30% dos usuários do ChatGPT usariam menos a plataforma caso a marca d’água fosse implementada. 69% disseram que a ferramenta poderia trazer falsas acusações sobre o uso de IA em textos.

A discussão é acerca de um grande problema que o chatbot trouxe para escolas e faculdades, a cola. O CEO da OpenAI, Sam Altman, está envolvido na discussão, encorajou o projeto mas não fez pressão para que a tecnologia fosse colocada em prática.

Uma das questões que envolvem a nova tecnologia é quem teria acesso a essa ferramenta. Se poucas pessoas tiverem permissão para usar, não será útil. Se muitas pessoas conseguirem utilizar, é possível que consigam driblar o sistema de verificação.

Por isso, uma das ideias da empresa é limitar o acesso à ferramenta de detecção a professores e órgãos de educação, assim, não correndo o risco de que a marca d’água seja decifrada.

Em nota publicada hoje, 5, a OpenAI disse que é “muito cedo” para afirmar, exatamente, como a tecnologia funcionaria. Mas como possui criptografia, não haveria “falsos positivos”.

Publicidade

*Mariana Cury é estagiária sob supervisão de Bruno Romani

Tudo Sobre
Comentários

Os comentários são exclusivos para assinantes do Estadão.