A OpenAI, empresa dona do ChatGPT, estuda a possibilidade de implementar uma marca d’água em textos criados pelo chatbot. A ferramenta, que permitiria saber se o texto foi produzido por inteligência artificial (IA), está pronta há cerca de um ano, mas divide opiniões internas na empresa. As informações foram divulgadas pelo The Wall Street Journal.
O sistema de detecção seria invisível aos olhos. Ou seja, o usuário não conseguiria ver que existe um “alerta de IA” em seu texto, mas a ferramenta conseguiria detectar o uso de inteligência artificial na produção. De acordo com a OpenAI, esse detector é 99,9% eficiente e não interferiria na qualidade dos textos criados pelo chatbot.
Segundo uma pesquisa realizada pela empresa, cerca de 30% dos usuários do ChatGPT usariam menos a plataforma caso a marca d’água fosse implementada. 69% disseram que a ferramenta poderia trazer falsas acusações sobre o uso de IA em textos.
A discussão é acerca de um grande problema que o chatbot trouxe para escolas e faculdades, a cola. O CEO da OpenAI, Sam Altman, está envolvido na discussão, encorajou o projeto mas não fez pressão para que a tecnologia fosse colocada em prática.
Uma das questões que envolvem a nova tecnologia é quem teria acesso a essa ferramenta. Se poucas pessoas tiverem permissão para usar, não será útil. Se muitas pessoas conseguirem utilizar, é possível que consigam driblar o sistema de verificação.
Leia também
Por isso, uma das ideias da empresa é limitar o acesso à ferramenta de detecção a professores e órgãos de educação, assim, não correndo o risco de que a marca d’água seja decifrada.
Em nota publicada hoje, 5, a OpenAI disse que é “muito cedo” para afirmar, exatamente, como a tecnologia funcionaria. Mas como possui criptografia, não haveria “falsos positivos”.
*Mariana Cury é estagiária sob supervisão de Bruno Romani
Os comentários são exclusivos para assinantes do Estadão.