Google pode usar informações públicas sobre você para treinar inteligência artificial


Mudança nos termos de uso da gigante indica que dados indexáveis na internet podem ser usados para desenvolvimento de grandes modelos de linguagem

Por Bruno Romani
Atualização:

No sábado, 1º, o Google fez uma alteração em seus termos de uso que indica que a gigante usará informações públicas de seus usuários para treinar modelos de inteligência artificial (IA), incluindo o chatbot Bard (indisponível no Brasil).

O novo trecho do documento trata sobre como o Google processa dados de fontes públicas, como publicações jornalísticas ou sites que possam ser indexados pela ferramenta de busca da companhia.

O documento diz: “Podemos, por exemplo, coletar informações disponíveis publicamente on-line ou de outras fontes públicas para ajudar a treinar os modelos de IA do Google e criar recursos como o Google Tradutor, o Bard e recursos de IA na nuvem. Ou, caso as informações sobre sua empresa apareçam em um site, podemos indexá-las e exibi-las nos Serviços do Google.”

continua após a publicidade
Termos de privacidade do Google mostram uso de dados públicos para treinamento de IA Foto: Google/Reprodução

Na versão anterior, publicada em 15 de dezembro do ano passado, o mesmo trecho do documento era mais brando e dizia que dados do tipo poderiam ser usados apenas para aperfeiçoar ferramentas de idiomas e traduções. Ele dizia: “Podemos, por exemplo, coletar informações disponíveis publicamente on-line ou de outras fontes públicas para ajudar a treinar os modelos de idiomas do Google e criar recursos como o Google Tradutor. Ou, caso as informações sobre sua empresa apareçam em um site, podemos indexá-las e exibi-las nos Serviços do Google.”

Os novos termos não deixam claro se documentos de acesso público de ferramentas do próprio Google, como artigos no Google Docs, estão sujeitos ao treinamento de IA.

continua após a publicidade

Procurado pela reportagem, o Google não quis comentar a reportagem. Sobre o assistente Bard, a companhia vem repetindo que a ferramenta estará disponível “em breve”. Na semana passada, em conversa com jornalistas, Fábio Coelho, presidente do Google Brasil, disse que a ferramenta precisa ser aperfeiçoada para o português brasileiro antes de estrear.

Durante a conferência Google I/O, empresa falou sobre desenvolvimento "responsável" de IA Foto: David Paul Morris / Bloomberg

Após pergunta do Estadão, ele afirmou que o atraso no lançamento não está ligado à Lei Geral de Proteção de Dados (LGPD) - em uma lista com 180 países apenas Brasil e União Europeia não têm acesso ao Bard. “Não tem nada a ver com LGPD. As nossas soluções de IA generativa vão chegar ao Brasil ainda neste ano, nos próximos meses. A gente está passando por um processo de curadoria, de análise, de aperfeiçoamento para que ela possa chegar bem ao Brasil”, afirmou.

continua após a publicidade

IA causa preocupações em relação à privacidade

A alteração dos termos de uso do Google acontece em um momento no qual grandes modelos de IA viraram alvo de preocupação de autoridades e reguladores por questões ligadas à privacidade. A grande questão é quais dados estão sendo usados para treinar esses modelos de IA - e quais consentimentos foram obtidos para isso.

A OpenAI, dona do ChatGPT, está sendo processada na Califórnia (EUA) por supostamente roubar “quantidades vastas” de informações pessoais para treinar a inteligência artificia (IA) do chatbot.

continua após a publicidade

Segundo o processo de 157 páginas, a OpenAI violou leis de privacidade ao secretamente coletar 300 bilhões de palavras da internet, explorando “livros, artigos, sites e postagens, incluindo informações pessoais obtidas sem consentimento”, aponta reportagem da Bloomberg.

Em 31 de março, o Garantidor da Proteção de Dados Pessoais da Itália, a autoridade administrativa independente encarregada de supervisionar a segurança dos dados, bloqueou o ChatGPT com a justificativa de que a ferramenta não respeitava a legislação de dados pessoais nem tinha um sistema para verificar usuários menores de idade. A chatbot voltou a funcionar em 28 de abril.

No sábado, 1º, o Google fez uma alteração em seus termos de uso que indica que a gigante usará informações públicas de seus usuários para treinar modelos de inteligência artificial (IA), incluindo o chatbot Bard (indisponível no Brasil).

O novo trecho do documento trata sobre como o Google processa dados de fontes públicas, como publicações jornalísticas ou sites que possam ser indexados pela ferramenta de busca da companhia.

O documento diz: “Podemos, por exemplo, coletar informações disponíveis publicamente on-line ou de outras fontes públicas para ajudar a treinar os modelos de IA do Google e criar recursos como o Google Tradutor, o Bard e recursos de IA na nuvem. Ou, caso as informações sobre sua empresa apareçam em um site, podemos indexá-las e exibi-las nos Serviços do Google.”

Termos de privacidade do Google mostram uso de dados públicos para treinamento de IA Foto: Google/Reprodução

Na versão anterior, publicada em 15 de dezembro do ano passado, o mesmo trecho do documento era mais brando e dizia que dados do tipo poderiam ser usados apenas para aperfeiçoar ferramentas de idiomas e traduções. Ele dizia: “Podemos, por exemplo, coletar informações disponíveis publicamente on-line ou de outras fontes públicas para ajudar a treinar os modelos de idiomas do Google e criar recursos como o Google Tradutor. Ou, caso as informações sobre sua empresa apareçam em um site, podemos indexá-las e exibi-las nos Serviços do Google.”

Os novos termos não deixam claro se documentos de acesso público de ferramentas do próprio Google, como artigos no Google Docs, estão sujeitos ao treinamento de IA.

Procurado pela reportagem, o Google não quis comentar a reportagem. Sobre o assistente Bard, a companhia vem repetindo que a ferramenta estará disponível “em breve”. Na semana passada, em conversa com jornalistas, Fábio Coelho, presidente do Google Brasil, disse que a ferramenta precisa ser aperfeiçoada para o português brasileiro antes de estrear.

Durante a conferência Google I/O, empresa falou sobre desenvolvimento "responsável" de IA Foto: David Paul Morris / Bloomberg

Após pergunta do Estadão, ele afirmou que o atraso no lançamento não está ligado à Lei Geral de Proteção de Dados (LGPD) - em uma lista com 180 países apenas Brasil e União Europeia não têm acesso ao Bard. “Não tem nada a ver com LGPD. As nossas soluções de IA generativa vão chegar ao Brasil ainda neste ano, nos próximos meses. A gente está passando por um processo de curadoria, de análise, de aperfeiçoamento para que ela possa chegar bem ao Brasil”, afirmou.

IA causa preocupações em relação à privacidade

A alteração dos termos de uso do Google acontece em um momento no qual grandes modelos de IA viraram alvo de preocupação de autoridades e reguladores por questões ligadas à privacidade. A grande questão é quais dados estão sendo usados para treinar esses modelos de IA - e quais consentimentos foram obtidos para isso.

A OpenAI, dona do ChatGPT, está sendo processada na Califórnia (EUA) por supostamente roubar “quantidades vastas” de informações pessoais para treinar a inteligência artificia (IA) do chatbot.

Segundo o processo de 157 páginas, a OpenAI violou leis de privacidade ao secretamente coletar 300 bilhões de palavras da internet, explorando “livros, artigos, sites e postagens, incluindo informações pessoais obtidas sem consentimento”, aponta reportagem da Bloomberg.

Em 31 de março, o Garantidor da Proteção de Dados Pessoais da Itália, a autoridade administrativa independente encarregada de supervisionar a segurança dos dados, bloqueou o ChatGPT com a justificativa de que a ferramenta não respeitava a legislação de dados pessoais nem tinha um sistema para verificar usuários menores de idade. A chatbot voltou a funcionar em 28 de abril.

No sábado, 1º, o Google fez uma alteração em seus termos de uso que indica que a gigante usará informações públicas de seus usuários para treinar modelos de inteligência artificial (IA), incluindo o chatbot Bard (indisponível no Brasil).

O novo trecho do documento trata sobre como o Google processa dados de fontes públicas, como publicações jornalísticas ou sites que possam ser indexados pela ferramenta de busca da companhia.

O documento diz: “Podemos, por exemplo, coletar informações disponíveis publicamente on-line ou de outras fontes públicas para ajudar a treinar os modelos de IA do Google e criar recursos como o Google Tradutor, o Bard e recursos de IA na nuvem. Ou, caso as informações sobre sua empresa apareçam em um site, podemos indexá-las e exibi-las nos Serviços do Google.”

Termos de privacidade do Google mostram uso de dados públicos para treinamento de IA Foto: Google/Reprodução

Na versão anterior, publicada em 15 de dezembro do ano passado, o mesmo trecho do documento era mais brando e dizia que dados do tipo poderiam ser usados apenas para aperfeiçoar ferramentas de idiomas e traduções. Ele dizia: “Podemos, por exemplo, coletar informações disponíveis publicamente on-line ou de outras fontes públicas para ajudar a treinar os modelos de idiomas do Google e criar recursos como o Google Tradutor. Ou, caso as informações sobre sua empresa apareçam em um site, podemos indexá-las e exibi-las nos Serviços do Google.”

Os novos termos não deixam claro se documentos de acesso público de ferramentas do próprio Google, como artigos no Google Docs, estão sujeitos ao treinamento de IA.

Procurado pela reportagem, o Google não quis comentar a reportagem. Sobre o assistente Bard, a companhia vem repetindo que a ferramenta estará disponível “em breve”. Na semana passada, em conversa com jornalistas, Fábio Coelho, presidente do Google Brasil, disse que a ferramenta precisa ser aperfeiçoada para o português brasileiro antes de estrear.

Durante a conferência Google I/O, empresa falou sobre desenvolvimento "responsável" de IA Foto: David Paul Morris / Bloomberg

Após pergunta do Estadão, ele afirmou que o atraso no lançamento não está ligado à Lei Geral de Proteção de Dados (LGPD) - em uma lista com 180 países apenas Brasil e União Europeia não têm acesso ao Bard. “Não tem nada a ver com LGPD. As nossas soluções de IA generativa vão chegar ao Brasil ainda neste ano, nos próximos meses. A gente está passando por um processo de curadoria, de análise, de aperfeiçoamento para que ela possa chegar bem ao Brasil”, afirmou.

IA causa preocupações em relação à privacidade

A alteração dos termos de uso do Google acontece em um momento no qual grandes modelos de IA viraram alvo de preocupação de autoridades e reguladores por questões ligadas à privacidade. A grande questão é quais dados estão sendo usados para treinar esses modelos de IA - e quais consentimentos foram obtidos para isso.

A OpenAI, dona do ChatGPT, está sendo processada na Califórnia (EUA) por supostamente roubar “quantidades vastas” de informações pessoais para treinar a inteligência artificia (IA) do chatbot.

Segundo o processo de 157 páginas, a OpenAI violou leis de privacidade ao secretamente coletar 300 bilhões de palavras da internet, explorando “livros, artigos, sites e postagens, incluindo informações pessoais obtidas sem consentimento”, aponta reportagem da Bloomberg.

Em 31 de março, o Garantidor da Proteção de Dados Pessoais da Itália, a autoridade administrativa independente encarregada de supervisionar a segurança dos dados, bloqueou o ChatGPT com a justificativa de que a ferramenta não respeitava a legislação de dados pessoais nem tinha um sistema para verificar usuários menores de idade. A chatbot voltou a funcionar em 28 de abril.

No sábado, 1º, o Google fez uma alteração em seus termos de uso que indica que a gigante usará informações públicas de seus usuários para treinar modelos de inteligência artificial (IA), incluindo o chatbot Bard (indisponível no Brasil).

O novo trecho do documento trata sobre como o Google processa dados de fontes públicas, como publicações jornalísticas ou sites que possam ser indexados pela ferramenta de busca da companhia.

O documento diz: “Podemos, por exemplo, coletar informações disponíveis publicamente on-line ou de outras fontes públicas para ajudar a treinar os modelos de IA do Google e criar recursos como o Google Tradutor, o Bard e recursos de IA na nuvem. Ou, caso as informações sobre sua empresa apareçam em um site, podemos indexá-las e exibi-las nos Serviços do Google.”

Termos de privacidade do Google mostram uso de dados públicos para treinamento de IA Foto: Google/Reprodução

Na versão anterior, publicada em 15 de dezembro do ano passado, o mesmo trecho do documento era mais brando e dizia que dados do tipo poderiam ser usados apenas para aperfeiçoar ferramentas de idiomas e traduções. Ele dizia: “Podemos, por exemplo, coletar informações disponíveis publicamente on-line ou de outras fontes públicas para ajudar a treinar os modelos de idiomas do Google e criar recursos como o Google Tradutor. Ou, caso as informações sobre sua empresa apareçam em um site, podemos indexá-las e exibi-las nos Serviços do Google.”

Os novos termos não deixam claro se documentos de acesso público de ferramentas do próprio Google, como artigos no Google Docs, estão sujeitos ao treinamento de IA.

Procurado pela reportagem, o Google não quis comentar a reportagem. Sobre o assistente Bard, a companhia vem repetindo que a ferramenta estará disponível “em breve”. Na semana passada, em conversa com jornalistas, Fábio Coelho, presidente do Google Brasil, disse que a ferramenta precisa ser aperfeiçoada para o português brasileiro antes de estrear.

Durante a conferência Google I/O, empresa falou sobre desenvolvimento "responsável" de IA Foto: David Paul Morris / Bloomberg

Após pergunta do Estadão, ele afirmou que o atraso no lançamento não está ligado à Lei Geral de Proteção de Dados (LGPD) - em uma lista com 180 países apenas Brasil e União Europeia não têm acesso ao Bard. “Não tem nada a ver com LGPD. As nossas soluções de IA generativa vão chegar ao Brasil ainda neste ano, nos próximos meses. A gente está passando por um processo de curadoria, de análise, de aperfeiçoamento para que ela possa chegar bem ao Brasil”, afirmou.

IA causa preocupações em relação à privacidade

A alteração dos termos de uso do Google acontece em um momento no qual grandes modelos de IA viraram alvo de preocupação de autoridades e reguladores por questões ligadas à privacidade. A grande questão é quais dados estão sendo usados para treinar esses modelos de IA - e quais consentimentos foram obtidos para isso.

A OpenAI, dona do ChatGPT, está sendo processada na Califórnia (EUA) por supostamente roubar “quantidades vastas” de informações pessoais para treinar a inteligência artificia (IA) do chatbot.

Segundo o processo de 157 páginas, a OpenAI violou leis de privacidade ao secretamente coletar 300 bilhões de palavras da internet, explorando “livros, artigos, sites e postagens, incluindo informações pessoais obtidas sem consentimento”, aponta reportagem da Bloomberg.

Em 31 de março, o Garantidor da Proteção de Dados Pessoais da Itália, a autoridade administrativa independente encarregada de supervisionar a segurança dos dados, bloqueou o ChatGPT com a justificativa de que a ferramenta não respeitava a legislação de dados pessoais nem tinha um sistema para verificar usuários menores de idade. A chatbot voltou a funcionar em 28 de abril.

No sábado, 1º, o Google fez uma alteração em seus termos de uso que indica que a gigante usará informações públicas de seus usuários para treinar modelos de inteligência artificial (IA), incluindo o chatbot Bard (indisponível no Brasil).

O novo trecho do documento trata sobre como o Google processa dados de fontes públicas, como publicações jornalísticas ou sites que possam ser indexados pela ferramenta de busca da companhia.

O documento diz: “Podemos, por exemplo, coletar informações disponíveis publicamente on-line ou de outras fontes públicas para ajudar a treinar os modelos de IA do Google e criar recursos como o Google Tradutor, o Bard e recursos de IA na nuvem. Ou, caso as informações sobre sua empresa apareçam em um site, podemos indexá-las e exibi-las nos Serviços do Google.”

Termos de privacidade do Google mostram uso de dados públicos para treinamento de IA Foto: Google/Reprodução

Na versão anterior, publicada em 15 de dezembro do ano passado, o mesmo trecho do documento era mais brando e dizia que dados do tipo poderiam ser usados apenas para aperfeiçoar ferramentas de idiomas e traduções. Ele dizia: “Podemos, por exemplo, coletar informações disponíveis publicamente on-line ou de outras fontes públicas para ajudar a treinar os modelos de idiomas do Google e criar recursos como o Google Tradutor. Ou, caso as informações sobre sua empresa apareçam em um site, podemos indexá-las e exibi-las nos Serviços do Google.”

Os novos termos não deixam claro se documentos de acesso público de ferramentas do próprio Google, como artigos no Google Docs, estão sujeitos ao treinamento de IA.

Procurado pela reportagem, o Google não quis comentar a reportagem. Sobre o assistente Bard, a companhia vem repetindo que a ferramenta estará disponível “em breve”. Na semana passada, em conversa com jornalistas, Fábio Coelho, presidente do Google Brasil, disse que a ferramenta precisa ser aperfeiçoada para o português brasileiro antes de estrear.

Durante a conferência Google I/O, empresa falou sobre desenvolvimento "responsável" de IA Foto: David Paul Morris / Bloomberg

Após pergunta do Estadão, ele afirmou que o atraso no lançamento não está ligado à Lei Geral de Proteção de Dados (LGPD) - em uma lista com 180 países apenas Brasil e União Europeia não têm acesso ao Bard. “Não tem nada a ver com LGPD. As nossas soluções de IA generativa vão chegar ao Brasil ainda neste ano, nos próximos meses. A gente está passando por um processo de curadoria, de análise, de aperfeiçoamento para que ela possa chegar bem ao Brasil”, afirmou.

IA causa preocupações em relação à privacidade

A alteração dos termos de uso do Google acontece em um momento no qual grandes modelos de IA viraram alvo de preocupação de autoridades e reguladores por questões ligadas à privacidade. A grande questão é quais dados estão sendo usados para treinar esses modelos de IA - e quais consentimentos foram obtidos para isso.

A OpenAI, dona do ChatGPT, está sendo processada na Califórnia (EUA) por supostamente roubar “quantidades vastas” de informações pessoais para treinar a inteligência artificia (IA) do chatbot.

Segundo o processo de 157 páginas, a OpenAI violou leis de privacidade ao secretamente coletar 300 bilhões de palavras da internet, explorando “livros, artigos, sites e postagens, incluindo informações pessoais obtidas sem consentimento”, aponta reportagem da Bloomberg.

Em 31 de março, o Garantidor da Proteção de Dados Pessoais da Itália, a autoridade administrativa independente encarregada de supervisionar a segurança dos dados, bloqueou o ChatGPT com a justificativa de que a ferramenta não respeitava a legislação de dados pessoais nem tinha um sistema para verificar usuários menores de idade. A chatbot voltou a funcionar em 28 de abril.

Atualizamos nossa política de cookies

Ao utilizar nossos serviços, você aceita a política de monitoramento de cookies.