OpenAI cria recurso que detecta texto gerado por IA, mas teme que isso ‘espante’ usuários do ChatGPT


Ferramenta que detecta uso de inteligência artificial em textos está pronta há cerca de um ano

Por Mariana Cury

A OpenAI, empresa dona do ChatGPT, estuda a possibilidade de implementar uma marca d’água em textos criados pelo chatbot. A ferramenta, que permitiria saber se o texto foi produzido por inteligência artificial (IA), está pronta há cerca de um ano, mas divide opiniões internas na empresa. As informações foram divulgadas pelo The Wall Street Journal.

O sistema de detecção seria invisível aos olhos. Ou seja, o usuário não conseguiria ver que existe um “alerta de IA” em seu texto, mas a ferramenta conseguiria detectar o uso de inteligência artificial na produção. De acordo com a OpenAI, esse detector é 99,9% eficiente e não interferiria na qualidade dos textos criados pelo chatbot.

A decisão da implementação da nova tecnologia ainda é incerta Foto: Daniel CHETRONI/adobe.stock
continua após a publicidade

Segundo uma pesquisa realizada pela empresa, cerca de 30% dos usuários do ChatGPT usariam menos a plataforma caso a marca d’água fosse implementada. 69% disseram que a ferramenta poderia trazer falsas acusações sobre o uso de IA em textos.

A discussão é acerca de um grande problema que o chatbot trouxe para escolas e faculdades, a cola. O CEO da OpenAI, Sam Altman, está envolvido na discussão, encorajou o projeto mas não fez pressão para que a tecnologia fosse colocada em prática.

Uma das questões que envolvem a nova tecnologia é quem teria acesso a essa ferramenta. Se poucas pessoas tiverem permissão para usar, não será útil. Se muitas pessoas conseguirem utilizar, é possível que consigam driblar o sistema de verificação.

continua após a publicidade

Por isso, uma das ideias da empresa é limitar o acesso à ferramenta de detecção a professores e órgãos de educação, assim, não correndo o risco de que a marca d’água seja decifrada.

Em nota publicada hoje, 5, a OpenAI disse que é “muito cedo” para afirmar, exatamente, como a tecnologia funcionaria. Mas como possui criptografia, não haveria “falsos positivos”.

continua após a publicidade

*Mariana Cury é estagiária sob supervisão de Bruno Romani

A OpenAI, empresa dona do ChatGPT, estuda a possibilidade de implementar uma marca d’água em textos criados pelo chatbot. A ferramenta, que permitiria saber se o texto foi produzido por inteligência artificial (IA), está pronta há cerca de um ano, mas divide opiniões internas na empresa. As informações foram divulgadas pelo The Wall Street Journal.

O sistema de detecção seria invisível aos olhos. Ou seja, o usuário não conseguiria ver que existe um “alerta de IA” em seu texto, mas a ferramenta conseguiria detectar o uso de inteligência artificial na produção. De acordo com a OpenAI, esse detector é 99,9% eficiente e não interferiria na qualidade dos textos criados pelo chatbot.

A decisão da implementação da nova tecnologia ainda é incerta Foto: Daniel CHETRONI/adobe.stock

Segundo uma pesquisa realizada pela empresa, cerca de 30% dos usuários do ChatGPT usariam menos a plataforma caso a marca d’água fosse implementada. 69% disseram que a ferramenta poderia trazer falsas acusações sobre o uso de IA em textos.

A discussão é acerca de um grande problema que o chatbot trouxe para escolas e faculdades, a cola. O CEO da OpenAI, Sam Altman, está envolvido na discussão, encorajou o projeto mas não fez pressão para que a tecnologia fosse colocada em prática.

Uma das questões que envolvem a nova tecnologia é quem teria acesso a essa ferramenta. Se poucas pessoas tiverem permissão para usar, não será útil. Se muitas pessoas conseguirem utilizar, é possível que consigam driblar o sistema de verificação.

Por isso, uma das ideias da empresa é limitar o acesso à ferramenta de detecção a professores e órgãos de educação, assim, não correndo o risco de que a marca d’água seja decifrada.

Em nota publicada hoje, 5, a OpenAI disse que é “muito cedo” para afirmar, exatamente, como a tecnologia funcionaria. Mas como possui criptografia, não haveria “falsos positivos”.

*Mariana Cury é estagiária sob supervisão de Bruno Romani

A OpenAI, empresa dona do ChatGPT, estuda a possibilidade de implementar uma marca d’água em textos criados pelo chatbot. A ferramenta, que permitiria saber se o texto foi produzido por inteligência artificial (IA), está pronta há cerca de um ano, mas divide opiniões internas na empresa. As informações foram divulgadas pelo The Wall Street Journal.

O sistema de detecção seria invisível aos olhos. Ou seja, o usuário não conseguiria ver que existe um “alerta de IA” em seu texto, mas a ferramenta conseguiria detectar o uso de inteligência artificial na produção. De acordo com a OpenAI, esse detector é 99,9% eficiente e não interferiria na qualidade dos textos criados pelo chatbot.

A decisão da implementação da nova tecnologia ainda é incerta Foto: Daniel CHETRONI/adobe.stock

Segundo uma pesquisa realizada pela empresa, cerca de 30% dos usuários do ChatGPT usariam menos a plataforma caso a marca d’água fosse implementada. 69% disseram que a ferramenta poderia trazer falsas acusações sobre o uso de IA em textos.

A discussão é acerca de um grande problema que o chatbot trouxe para escolas e faculdades, a cola. O CEO da OpenAI, Sam Altman, está envolvido na discussão, encorajou o projeto mas não fez pressão para que a tecnologia fosse colocada em prática.

Uma das questões que envolvem a nova tecnologia é quem teria acesso a essa ferramenta. Se poucas pessoas tiverem permissão para usar, não será útil. Se muitas pessoas conseguirem utilizar, é possível que consigam driblar o sistema de verificação.

Por isso, uma das ideias da empresa é limitar o acesso à ferramenta de detecção a professores e órgãos de educação, assim, não correndo o risco de que a marca d’água seja decifrada.

Em nota publicada hoje, 5, a OpenAI disse que é “muito cedo” para afirmar, exatamente, como a tecnologia funcionaria. Mas como possui criptografia, não haveria “falsos positivos”.

*Mariana Cury é estagiária sob supervisão de Bruno Romani

A OpenAI, empresa dona do ChatGPT, estuda a possibilidade de implementar uma marca d’água em textos criados pelo chatbot. A ferramenta, que permitiria saber se o texto foi produzido por inteligência artificial (IA), está pronta há cerca de um ano, mas divide opiniões internas na empresa. As informações foram divulgadas pelo The Wall Street Journal.

O sistema de detecção seria invisível aos olhos. Ou seja, o usuário não conseguiria ver que existe um “alerta de IA” em seu texto, mas a ferramenta conseguiria detectar o uso de inteligência artificial na produção. De acordo com a OpenAI, esse detector é 99,9% eficiente e não interferiria na qualidade dos textos criados pelo chatbot.

A decisão da implementação da nova tecnologia ainda é incerta Foto: Daniel CHETRONI/adobe.stock

Segundo uma pesquisa realizada pela empresa, cerca de 30% dos usuários do ChatGPT usariam menos a plataforma caso a marca d’água fosse implementada. 69% disseram que a ferramenta poderia trazer falsas acusações sobre o uso de IA em textos.

A discussão é acerca de um grande problema que o chatbot trouxe para escolas e faculdades, a cola. O CEO da OpenAI, Sam Altman, está envolvido na discussão, encorajou o projeto mas não fez pressão para que a tecnologia fosse colocada em prática.

Uma das questões que envolvem a nova tecnologia é quem teria acesso a essa ferramenta. Se poucas pessoas tiverem permissão para usar, não será útil. Se muitas pessoas conseguirem utilizar, é possível que consigam driblar o sistema de verificação.

Por isso, uma das ideias da empresa é limitar o acesso à ferramenta de detecção a professores e órgãos de educação, assim, não correndo o risco de que a marca d’água seja decifrada.

Em nota publicada hoje, 5, a OpenAI disse que é “muito cedo” para afirmar, exatamente, como a tecnologia funcionaria. Mas como possui criptografia, não haveria “falsos positivos”.

*Mariana Cury é estagiária sob supervisão de Bruno Romani

A OpenAI, empresa dona do ChatGPT, estuda a possibilidade de implementar uma marca d’água em textos criados pelo chatbot. A ferramenta, que permitiria saber se o texto foi produzido por inteligência artificial (IA), está pronta há cerca de um ano, mas divide opiniões internas na empresa. As informações foram divulgadas pelo The Wall Street Journal.

O sistema de detecção seria invisível aos olhos. Ou seja, o usuário não conseguiria ver que existe um “alerta de IA” em seu texto, mas a ferramenta conseguiria detectar o uso de inteligência artificial na produção. De acordo com a OpenAI, esse detector é 99,9% eficiente e não interferiria na qualidade dos textos criados pelo chatbot.

A decisão da implementação da nova tecnologia ainda é incerta Foto: Daniel CHETRONI/adobe.stock

Segundo uma pesquisa realizada pela empresa, cerca de 30% dos usuários do ChatGPT usariam menos a plataforma caso a marca d’água fosse implementada. 69% disseram que a ferramenta poderia trazer falsas acusações sobre o uso de IA em textos.

A discussão é acerca de um grande problema que o chatbot trouxe para escolas e faculdades, a cola. O CEO da OpenAI, Sam Altman, está envolvido na discussão, encorajou o projeto mas não fez pressão para que a tecnologia fosse colocada em prática.

Uma das questões que envolvem a nova tecnologia é quem teria acesso a essa ferramenta. Se poucas pessoas tiverem permissão para usar, não será útil. Se muitas pessoas conseguirem utilizar, é possível que consigam driblar o sistema de verificação.

Por isso, uma das ideias da empresa é limitar o acesso à ferramenta de detecção a professores e órgãos de educação, assim, não correndo o risco de que a marca d’água seja decifrada.

Em nota publicada hoje, 5, a OpenAI disse que é “muito cedo” para afirmar, exatamente, como a tecnologia funcionaria. Mas como possui criptografia, não haveria “falsos positivos”.

*Mariana Cury é estagiária sob supervisão de Bruno Romani

Tudo Sobre

Atualizamos nossa política de cookies

Ao utilizar nossos serviços, você aceita a política de monitoramento de cookies.