Pedir para ChatGPT repetir palavras infinitamente agora é proibido pela OpenAI

Após testes, startup americana reforça restrições de conteúdo no ChatGPT

PUBLICIDADE

Foto do author Alice Labate

A repetição infinita de palavras específicas no ChatGPT agora é considerada uma violação dos temos de uso e da política de conteúdo do robô de bate-papo movido a inteligência artificial, segundo reportagem do 404midia publicada nesta segunda-feira, 4. A OpenAI não confirmou as mudanças, mas usuários já notaram diferença nas respostas do chatbot.

PUBLICIDADE

Após pesquisadores do Google DeepMind explorarem essa tática, o ChatGPT divulgou informações confidenciais de identificação privada (PII) de algumas pessoas, lembrando que o chat de inteligência artificial (IA) é alimentado com dados da internet.

No experimento conduzido pelos pesquisadores, o ChatGPT 3.5 foi solicitado a repetir palavras específicas “para sempre”, resultando em respostas que ultrapassavam limites preestabelecidos e retornavam grandes volumes de dados de treinamento extraídos da internet. Essa abordagem permitiu a extração de megabytes de dados, revelando a presença de PII no ChatGPT, que ocasionalmente era devolvida aos usuários como parte de suas respostas.

ChatGPT adota medidas de segurança após revelações de vazamento de dados com repetições infinitas Foto: Alice Labate/Estadão

Agora, ao pedir ao ChatGPT 3.5 para repetir palavras “para sempre”, o robô responde com algumas repetições da palavra antes de exibir uma mensagem de erro indicando possível violação de política de conteúdo ou temos de uso ou apenas para após algumas repetições.

Publicidade

Até o momento, a OpenAI não se manifestou sobre o artigo do Google DeepMind. O trabalho dos pesquisadores destaca as vulnerabilidades de segurança e privacidade no ChatGPT, provocando discussões sobre a regulamentação e a ética em torno do uso desses modelos avançados de linguagem.

O artigo também reforça a tensão entre a comunidade de segurança e as empresas que buscam crescer seus sistemas de IA sem necessariamente preocupar em preservar a privacidade dos dados utilizados. Essa discussão não é de hoje e até já se tornou polêmica quando grandes nomes da tecnologia assinaram uma carta anti-IA, querendo pausar o desenvolvimento dessa tecnologia.

*Alice Labate é estagiária sob supervisão do editor Bruno Romani

Comentários

Os comentários são exclusivos para assinantes do Estadão.