ChatGPT tenta aumentar a privacidade dos usuários em meio a críticas sobre uso de dados


OpenAI divulgou que usuários podem escolher não compartilhar com a companhia o histórico de conversas do chatbot

Por Rachel Metz

THE WASHINGTON POST - A OpenAI, dona do ChatGPT, vai permitir que os usuários do serviço não compartilhem suas conversas para o treinamento de modelos de inteligência artificial (IA) - a medida visa o aumento da privacidade das pessoas em um momento em que a companhia é criticada pelo uso indiscriminado de dados.

A OpenAi anunciou na terça-feira, 25, que os usuários do ChatGPT agora podem desativar seus históricos de bate-papo clicando em um botão nas configurações de suas contas. Os usuários que fizerem isso não serão mais suas conversas salvas na barra lateral do histórico do ChatGPT (localizada no lado esquerdo da página da web) e os modelos da OpenAI não usarão esses dados para melhorar com o tempo.

“Queremos avançar mais nessa direção em que as pessoas que estão usando nossos produtos possam decidir como seus dados estão sendo usados - se estão sendo usados para treinamento ou não”, disse Mira Murati, Diretora de Tecnologia da OpenAI.

continua após a publicidade

Nos meses desde que o ChatGPT foi lançado publicamente, milhões de pessoas experimentaram o aplicativo e serviços similares (como o Bard, criado pelo Google). Essa nova onda de chatbots de IA já está sendo aproveitada para tudo, desde ajudar a planejar férias até atuar como terapeuta improvisado, levantando questões não apenas sobre como esses sistemas podem ser usados, mas também sobre como as empresas processam os comandos digitados nelas. A OpenAI afirmou que seu software filtra informações pessoais identificáveis que vêm dos usuários.

A startup anunciou que continuará a treinar seus modelos com dados do usuário por padrão. Ainda armazenará dados (incluindo aqueles de conversas em que os usuários desativaram o histórico de bate-papo) por 30 dias antes de excluí-los, o que faz para identificar comportamentos abusivos, segundo a empresa.

A OpenAI também informou os usuários recebam por e-mail uma cópia dos dados que produziram ao usar o ChatGPT. A empresa planeja lançar um plano de assinatura empresarial nos próximos meses, que, segundo ela, não treinará por padrão nos dados desses usuários.

THE WASHINGTON POST - A OpenAI, dona do ChatGPT, vai permitir que os usuários do serviço não compartilhem suas conversas para o treinamento de modelos de inteligência artificial (IA) - a medida visa o aumento da privacidade das pessoas em um momento em que a companhia é criticada pelo uso indiscriminado de dados.

A OpenAi anunciou na terça-feira, 25, que os usuários do ChatGPT agora podem desativar seus históricos de bate-papo clicando em um botão nas configurações de suas contas. Os usuários que fizerem isso não serão mais suas conversas salvas na barra lateral do histórico do ChatGPT (localizada no lado esquerdo da página da web) e os modelos da OpenAI não usarão esses dados para melhorar com o tempo.

“Queremos avançar mais nessa direção em que as pessoas que estão usando nossos produtos possam decidir como seus dados estão sendo usados - se estão sendo usados para treinamento ou não”, disse Mira Murati, Diretora de Tecnologia da OpenAI.

Nos meses desde que o ChatGPT foi lançado publicamente, milhões de pessoas experimentaram o aplicativo e serviços similares (como o Bard, criado pelo Google). Essa nova onda de chatbots de IA já está sendo aproveitada para tudo, desde ajudar a planejar férias até atuar como terapeuta improvisado, levantando questões não apenas sobre como esses sistemas podem ser usados, mas também sobre como as empresas processam os comandos digitados nelas. A OpenAI afirmou que seu software filtra informações pessoais identificáveis que vêm dos usuários.

A startup anunciou que continuará a treinar seus modelos com dados do usuário por padrão. Ainda armazenará dados (incluindo aqueles de conversas em que os usuários desativaram o histórico de bate-papo) por 30 dias antes de excluí-los, o que faz para identificar comportamentos abusivos, segundo a empresa.

A OpenAI também informou os usuários recebam por e-mail uma cópia dos dados que produziram ao usar o ChatGPT. A empresa planeja lançar um plano de assinatura empresarial nos próximos meses, que, segundo ela, não treinará por padrão nos dados desses usuários.

THE WASHINGTON POST - A OpenAI, dona do ChatGPT, vai permitir que os usuários do serviço não compartilhem suas conversas para o treinamento de modelos de inteligência artificial (IA) - a medida visa o aumento da privacidade das pessoas em um momento em que a companhia é criticada pelo uso indiscriminado de dados.

A OpenAi anunciou na terça-feira, 25, que os usuários do ChatGPT agora podem desativar seus históricos de bate-papo clicando em um botão nas configurações de suas contas. Os usuários que fizerem isso não serão mais suas conversas salvas na barra lateral do histórico do ChatGPT (localizada no lado esquerdo da página da web) e os modelos da OpenAI não usarão esses dados para melhorar com o tempo.

“Queremos avançar mais nessa direção em que as pessoas que estão usando nossos produtos possam decidir como seus dados estão sendo usados - se estão sendo usados para treinamento ou não”, disse Mira Murati, Diretora de Tecnologia da OpenAI.

Nos meses desde que o ChatGPT foi lançado publicamente, milhões de pessoas experimentaram o aplicativo e serviços similares (como o Bard, criado pelo Google). Essa nova onda de chatbots de IA já está sendo aproveitada para tudo, desde ajudar a planejar férias até atuar como terapeuta improvisado, levantando questões não apenas sobre como esses sistemas podem ser usados, mas também sobre como as empresas processam os comandos digitados nelas. A OpenAI afirmou que seu software filtra informações pessoais identificáveis que vêm dos usuários.

A startup anunciou que continuará a treinar seus modelos com dados do usuário por padrão. Ainda armazenará dados (incluindo aqueles de conversas em que os usuários desativaram o histórico de bate-papo) por 30 dias antes de excluí-los, o que faz para identificar comportamentos abusivos, segundo a empresa.

A OpenAI também informou os usuários recebam por e-mail uma cópia dos dados que produziram ao usar o ChatGPT. A empresa planeja lançar um plano de assinatura empresarial nos próximos meses, que, segundo ela, não treinará por padrão nos dados desses usuários.

THE WASHINGTON POST - A OpenAI, dona do ChatGPT, vai permitir que os usuários do serviço não compartilhem suas conversas para o treinamento de modelos de inteligência artificial (IA) - a medida visa o aumento da privacidade das pessoas em um momento em que a companhia é criticada pelo uso indiscriminado de dados.

A OpenAi anunciou na terça-feira, 25, que os usuários do ChatGPT agora podem desativar seus históricos de bate-papo clicando em um botão nas configurações de suas contas. Os usuários que fizerem isso não serão mais suas conversas salvas na barra lateral do histórico do ChatGPT (localizada no lado esquerdo da página da web) e os modelos da OpenAI não usarão esses dados para melhorar com o tempo.

“Queremos avançar mais nessa direção em que as pessoas que estão usando nossos produtos possam decidir como seus dados estão sendo usados - se estão sendo usados para treinamento ou não”, disse Mira Murati, Diretora de Tecnologia da OpenAI.

Nos meses desde que o ChatGPT foi lançado publicamente, milhões de pessoas experimentaram o aplicativo e serviços similares (como o Bard, criado pelo Google). Essa nova onda de chatbots de IA já está sendo aproveitada para tudo, desde ajudar a planejar férias até atuar como terapeuta improvisado, levantando questões não apenas sobre como esses sistemas podem ser usados, mas também sobre como as empresas processam os comandos digitados nelas. A OpenAI afirmou que seu software filtra informações pessoais identificáveis que vêm dos usuários.

A startup anunciou que continuará a treinar seus modelos com dados do usuário por padrão. Ainda armazenará dados (incluindo aqueles de conversas em que os usuários desativaram o histórico de bate-papo) por 30 dias antes de excluí-los, o que faz para identificar comportamentos abusivos, segundo a empresa.

A OpenAI também informou os usuários recebam por e-mail uma cópia dos dados que produziram ao usar o ChatGPT. A empresa planeja lançar um plano de assinatura empresarial nos próximos meses, que, segundo ela, não treinará por padrão nos dados desses usuários.

Atualizamos nossa política de cookies

Ao utilizar nossos serviços, você aceita a política de monitoramento de cookies.