Jornalismo, educação, tecnologia e as combinações disso tudo

Opinião|O que está por trás da proibição da Meta usar dados dos usuários para treinar sua IA


Por Paulo Silvestre
Mark Zuckerberg, CEO da Meta: empresa quer usar dados de seus usuários para treinar sua IA - Foto: Anthony Quintano/Creative Commons

Na terça passada (2), a Autoridade Nacional de Proteção de Dados (ANPD) tomou a decisão de mais visibilidade e impacto da sua existência de cinco anos: proibiu a Meta (empresa dona do Facebook, Instagram e WhatsApp) de usar os dados dos usuários para treinar seus modelos de inteligência artificial. É a primeira vez que o órgão age contra uma big tech, em um movimento que impacta todos os internautas do país.

Segundo a ANPD, a maneira como a empresa está usando esses dados violaria a Lei Geral de Proteção de Dados (LGPD). O ineditismo da medida não se dá apenas pela sua abrangência, mas também por tratar de algo ligado à IA, uma área que empresas, governos e usuários ainda tentam compreender toda sua enorme complexidade.

continua após a publicidade

Mas eventuais lacunas nesse entendimento não podem ser usadas por empresas para abusar de seus usuários e do mercado. Como não há legislação sobre a IA definida na maioria dos países, práticas como a da Meta levantam muitos questionamentos.

Afinal, os usuários podem ficar em risco ou serem expostos com isso? Esse comportamento configura um abuso de poder econômico? Não seria melhor as pessoas decidirem compartilhar os seus dados, ao invés de isso acontecer sem seu consentimento e até conhecimento? Se nossos dados são tão valiosos para as big techs criarem produtos que lhes rendem bilhões de dólares, não deveríamos ser remunerados por eles? E acima de tudo, será que as pessoas sequer entendem esse mundo em acelerada transformação diante de seus olhos?

É um terreno pantanoso! Por isso, qualquer que seja o desfecho da decisão da ANPD, o debate em torno dela já oferece um grande ganho para a sociedade.

continua após a publicidade

Veja esse artigo em vídeo:

continua após a publicidade

A Meta atualizou a política de privacidade de seus serviços para usar as informações de todos os posts públicos dos usuários, feitos de agora em diante e também no passado. Mas as pessoas não viram a nova regra ou, se viram, não leram ou sequer entenderam. E, como de costume, aceitaram, pois essa é uma condição para continuar usando esses produtos que se tornaram centrais em suas vidas.

As pessoas não esperam que seus posts sejam usados para treinar uma IA. Por conta disso e por entender que o formulário para os usuários se oporem a coleta de seus dados ser de difícil acesso, exigindo que a pessoa vença nove etapas, a ANPD anulou a atualização da política e determinou que a coleta seja interrompida imediatamente.

continua após a publicidade

A Meta pode ser multada em R$ 50 mil por dia em que não cumprir a determinação. E vale dizer que a companhia enfrenta uma proibição semelhante na Europa.

Obviamente, a empresa reclamou! Em nota, disse estar desapontada com a decisão da ANPD, e que eles são mais transparentes no treinamento de sua IA que muitas outras empresas. Afirma ainda que a proibição seria um retrocesso para a inovação e a para a competividade no desenvolvimento de IA, podendo atrasar a chegada de seus benefícios para os brasileiros.

continua após a publicidade

A Meta quer usar os textos, imagens, áudios e vídeos dos posts de seus usuários porque os modelos de linguagem amplos (da sigla em inglês LLM), que viabilizam plataformas de inteligência artificial generativa, como o ChatGPT, dependem de quantidades gigantescas de informações para serem treinados. Sem isso, são incapazes de dar respostas de qualidade.

Os posts nas redes sociais são uma fonte suculenta desse tipo de informação, mas sua coleta pode trazer riscos aos usuários. "É possível pensar em clonagem de voz e vídeo por IA para enganar familiares, amigos e colegas, ou mesmo extorsão por meio de deepfakes", explica Marcelo Cárgano, advogado especialista em direito digital do Abe Advogados.

continua após a publicidade

Segundo ele, esse uso dos dados pode ainda levar a uma "discriminação algorítmica", quando os sistemas determinam que grupos selecionados serão desfavorecidos em processos como ofertas de crédito, emprego ou serviços públicos. "E em regimes autoritários, dados pessoais podem alimentar sistemas de IA preditiva comportamental, aumentando a vigilância e a repressão sobre a população", adverte.

 

Pedir para entrar ou para sair?

Nesse caso, a Meta fez o chamado "opt-out" com seus usuários. Ou seja, assumiu que todos aceitariam que seus dados fossem coletados. Quem não quisesse bastaria pedir para sair. O problema é que, como a ANPD corretamente apontou, as pessoas nem sabem que seus dados estão sendo coletados, não entendem isso e o processo para se oporem à coleta é muito difícil, o que, na prática, pode fazer com que muita gente ceda seus dados sem assim desejar.

Do ponto de vista de privacidade e respeito às pessoas, o processo deveria ser o contrário: um "opt-in". Nesse caso, os usuários precisariam conscientemente permitir que a empresa fizesse sua coleta, antes que isso começasse. Mas a Meta não adotou esse caminho porque obviamente pouquíssimas pessoas topariam.

Não quer dizer que dados pessoais não possam ser usados para o treinamento de um modelo de IA. Mas as boas práticas indicam que o usuário seja avisado previamente e aceite cedê-los conscientemente. Além disso, a informação deve ser anonimizada.

E é importante que esse consentimento seja dado antes de a coleta ser iniciada, pois, uma vez que a informação é incorporada ao modelo, é virtualmente impossível removê-la individualmente. Mas a LGPD determina que, mesmo que alguém conceda acesso a seus dados, se decidir que não mais aceita, a informação deve ser apagada.

Por fim, há a polêmica de que os usuários sejam eventualmente remunerados por seus dados, essenciais para a criação de um produto bilionário. "Um sistema amplo de remuneração de dados pessoais não me parece tão prático ou desejável, porque eles geralmente são valiosos para empresas quando são massificados", explica Cárgano. "Isso pode tornar difícil para um indivíduo conseguir negociar um preço justo, se é que isso existe, para seus próprios dados", conclui.

Como se vê, há mais dúvidas que consensos no uso de nossas informações para treinamento de modelos de IA. Ainda haverá muito ranger de dentes e aplausos em torno da decisão da ANPD. Mas temos que ter em mente também que muitas outras empresas estão fazendo exatamente o mesmo que a Meta, e precisam ser identificadas.

De todo jeito, tudo isso está servindo para a sociedade debater a questão. No final das contas, o que mais precisamos é que as big techs sejam mais transparentes e respeitem seus clientes, dois pontos em que elas historicamente falham feio!

 

Mark Zuckerberg, CEO da Meta: empresa quer usar dados de seus usuários para treinar sua IA - Foto: Anthony Quintano/Creative Commons

Na terça passada (2), a Autoridade Nacional de Proteção de Dados (ANPD) tomou a decisão de mais visibilidade e impacto da sua existência de cinco anos: proibiu a Meta (empresa dona do Facebook, Instagram e WhatsApp) de usar os dados dos usuários para treinar seus modelos de inteligência artificial. É a primeira vez que o órgão age contra uma big tech, em um movimento que impacta todos os internautas do país.

Segundo a ANPD, a maneira como a empresa está usando esses dados violaria a Lei Geral de Proteção de Dados (LGPD). O ineditismo da medida não se dá apenas pela sua abrangência, mas também por tratar de algo ligado à IA, uma área que empresas, governos e usuários ainda tentam compreender toda sua enorme complexidade.

Mas eventuais lacunas nesse entendimento não podem ser usadas por empresas para abusar de seus usuários e do mercado. Como não há legislação sobre a IA definida na maioria dos países, práticas como a da Meta levantam muitos questionamentos.

Afinal, os usuários podem ficar em risco ou serem expostos com isso? Esse comportamento configura um abuso de poder econômico? Não seria melhor as pessoas decidirem compartilhar os seus dados, ao invés de isso acontecer sem seu consentimento e até conhecimento? Se nossos dados são tão valiosos para as big techs criarem produtos que lhes rendem bilhões de dólares, não deveríamos ser remunerados por eles? E acima de tudo, será que as pessoas sequer entendem esse mundo em acelerada transformação diante de seus olhos?

É um terreno pantanoso! Por isso, qualquer que seja o desfecho da decisão da ANPD, o debate em torno dela já oferece um grande ganho para a sociedade.

Veja esse artigo em vídeo:

A Meta atualizou a política de privacidade de seus serviços para usar as informações de todos os posts públicos dos usuários, feitos de agora em diante e também no passado. Mas as pessoas não viram a nova regra ou, se viram, não leram ou sequer entenderam. E, como de costume, aceitaram, pois essa é uma condição para continuar usando esses produtos que se tornaram centrais em suas vidas.

As pessoas não esperam que seus posts sejam usados para treinar uma IA. Por conta disso e por entender que o formulário para os usuários se oporem a coleta de seus dados ser de difícil acesso, exigindo que a pessoa vença nove etapas, a ANPD anulou a atualização da política e determinou que a coleta seja interrompida imediatamente.

A Meta pode ser multada em R$ 50 mil por dia em que não cumprir a determinação. E vale dizer que a companhia enfrenta uma proibição semelhante na Europa.

Obviamente, a empresa reclamou! Em nota, disse estar desapontada com a decisão da ANPD, e que eles são mais transparentes no treinamento de sua IA que muitas outras empresas. Afirma ainda que a proibição seria um retrocesso para a inovação e a para a competividade no desenvolvimento de IA, podendo atrasar a chegada de seus benefícios para os brasileiros.

A Meta quer usar os textos, imagens, áudios e vídeos dos posts de seus usuários porque os modelos de linguagem amplos (da sigla em inglês LLM), que viabilizam plataformas de inteligência artificial generativa, como o ChatGPT, dependem de quantidades gigantescas de informações para serem treinados. Sem isso, são incapazes de dar respostas de qualidade.

Os posts nas redes sociais são uma fonte suculenta desse tipo de informação, mas sua coleta pode trazer riscos aos usuários. "É possível pensar em clonagem de voz e vídeo por IA para enganar familiares, amigos e colegas, ou mesmo extorsão por meio de deepfakes", explica Marcelo Cárgano, advogado especialista em direito digital do Abe Advogados.

Segundo ele, esse uso dos dados pode ainda levar a uma "discriminação algorítmica", quando os sistemas determinam que grupos selecionados serão desfavorecidos em processos como ofertas de crédito, emprego ou serviços públicos. "E em regimes autoritários, dados pessoais podem alimentar sistemas de IA preditiva comportamental, aumentando a vigilância e a repressão sobre a população", adverte.

 

Pedir para entrar ou para sair?

Nesse caso, a Meta fez o chamado "opt-out" com seus usuários. Ou seja, assumiu que todos aceitariam que seus dados fossem coletados. Quem não quisesse bastaria pedir para sair. O problema é que, como a ANPD corretamente apontou, as pessoas nem sabem que seus dados estão sendo coletados, não entendem isso e o processo para se oporem à coleta é muito difícil, o que, na prática, pode fazer com que muita gente ceda seus dados sem assim desejar.

Do ponto de vista de privacidade e respeito às pessoas, o processo deveria ser o contrário: um "opt-in". Nesse caso, os usuários precisariam conscientemente permitir que a empresa fizesse sua coleta, antes que isso começasse. Mas a Meta não adotou esse caminho porque obviamente pouquíssimas pessoas topariam.

Não quer dizer que dados pessoais não possam ser usados para o treinamento de um modelo de IA. Mas as boas práticas indicam que o usuário seja avisado previamente e aceite cedê-los conscientemente. Além disso, a informação deve ser anonimizada.

E é importante que esse consentimento seja dado antes de a coleta ser iniciada, pois, uma vez que a informação é incorporada ao modelo, é virtualmente impossível removê-la individualmente. Mas a LGPD determina que, mesmo que alguém conceda acesso a seus dados, se decidir que não mais aceita, a informação deve ser apagada.

Por fim, há a polêmica de que os usuários sejam eventualmente remunerados por seus dados, essenciais para a criação de um produto bilionário. "Um sistema amplo de remuneração de dados pessoais não me parece tão prático ou desejável, porque eles geralmente são valiosos para empresas quando são massificados", explica Cárgano. "Isso pode tornar difícil para um indivíduo conseguir negociar um preço justo, se é que isso existe, para seus próprios dados", conclui.

Como se vê, há mais dúvidas que consensos no uso de nossas informações para treinamento de modelos de IA. Ainda haverá muito ranger de dentes e aplausos em torno da decisão da ANPD. Mas temos que ter em mente também que muitas outras empresas estão fazendo exatamente o mesmo que a Meta, e precisam ser identificadas.

De todo jeito, tudo isso está servindo para a sociedade debater a questão. No final das contas, o que mais precisamos é que as big techs sejam mais transparentes e respeitem seus clientes, dois pontos em que elas historicamente falham feio!

 

Mark Zuckerberg, CEO da Meta: empresa quer usar dados de seus usuários para treinar sua IA - Foto: Anthony Quintano/Creative Commons

Na terça passada (2), a Autoridade Nacional de Proteção de Dados (ANPD) tomou a decisão de mais visibilidade e impacto da sua existência de cinco anos: proibiu a Meta (empresa dona do Facebook, Instagram e WhatsApp) de usar os dados dos usuários para treinar seus modelos de inteligência artificial. É a primeira vez que o órgão age contra uma big tech, em um movimento que impacta todos os internautas do país.

Segundo a ANPD, a maneira como a empresa está usando esses dados violaria a Lei Geral de Proteção de Dados (LGPD). O ineditismo da medida não se dá apenas pela sua abrangência, mas também por tratar de algo ligado à IA, uma área que empresas, governos e usuários ainda tentam compreender toda sua enorme complexidade.

Mas eventuais lacunas nesse entendimento não podem ser usadas por empresas para abusar de seus usuários e do mercado. Como não há legislação sobre a IA definida na maioria dos países, práticas como a da Meta levantam muitos questionamentos.

Afinal, os usuários podem ficar em risco ou serem expostos com isso? Esse comportamento configura um abuso de poder econômico? Não seria melhor as pessoas decidirem compartilhar os seus dados, ao invés de isso acontecer sem seu consentimento e até conhecimento? Se nossos dados são tão valiosos para as big techs criarem produtos que lhes rendem bilhões de dólares, não deveríamos ser remunerados por eles? E acima de tudo, será que as pessoas sequer entendem esse mundo em acelerada transformação diante de seus olhos?

É um terreno pantanoso! Por isso, qualquer que seja o desfecho da decisão da ANPD, o debate em torno dela já oferece um grande ganho para a sociedade.

Veja esse artigo em vídeo:

A Meta atualizou a política de privacidade de seus serviços para usar as informações de todos os posts públicos dos usuários, feitos de agora em diante e também no passado. Mas as pessoas não viram a nova regra ou, se viram, não leram ou sequer entenderam. E, como de costume, aceitaram, pois essa é uma condição para continuar usando esses produtos que se tornaram centrais em suas vidas.

As pessoas não esperam que seus posts sejam usados para treinar uma IA. Por conta disso e por entender que o formulário para os usuários se oporem a coleta de seus dados ser de difícil acesso, exigindo que a pessoa vença nove etapas, a ANPD anulou a atualização da política e determinou que a coleta seja interrompida imediatamente.

A Meta pode ser multada em R$ 50 mil por dia em que não cumprir a determinação. E vale dizer que a companhia enfrenta uma proibição semelhante na Europa.

Obviamente, a empresa reclamou! Em nota, disse estar desapontada com a decisão da ANPD, e que eles são mais transparentes no treinamento de sua IA que muitas outras empresas. Afirma ainda que a proibição seria um retrocesso para a inovação e a para a competividade no desenvolvimento de IA, podendo atrasar a chegada de seus benefícios para os brasileiros.

A Meta quer usar os textos, imagens, áudios e vídeos dos posts de seus usuários porque os modelos de linguagem amplos (da sigla em inglês LLM), que viabilizam plataformas de inteligência artificial generativa, como o ChatGPT, dependem de quantidades gigantescas de informações para serem treinados. Sem isso, são incapazes de dar respostas de qualidade.

Os posts nas redes sociais são uma fonte suculenta desse tipo de informação, mas sua coleta pode trazer riscos aos usuários. "É possível pensar em clonagem de voz e vídeo por IA para enganar familiares, amigos e colegas, ou mesmo extorsão por meio de deepfakes", explica Marcelo Cárgano, advogado especialista em direito digital do Abe Advogados.

Segundo ele, esse uso dos dados pode ainda levar a uma "discriminação algorítmica", quando os sistemas determinam que grupos selecionados serão desfavorecidos em processos como ofertas de crédito, emprego ou serviços públicos. "E em regimes autoritários, dados pessoais podem alimentar sistemas de IA preditiva comportamental, aumentando a vigilância e a repressão sobre a população", adverte.

 

Pedir para entrar ou para sair?

Nesse caso, a Meta fez o chamado "opt-out" com seus usuários. Ou seja, assumiu que todos aceitariam que seus dados fossem coletados. Quem não quisesse bastaria pedir para sair. O problema é que, como a ANPD corretamente apontou, as pessoas nem sabem que seus dados estão sendo coletados, não entendem isso e o processo para se oporem à coleta é muito difícil, o que, na prática, pode fazer com que muita gente ceda seus dados sem assim desejar.

Do ponto de vista de privacidade e respeito às pessoas, o processo deveria ser o contrário: um "opt-in". Nesse caso, os usuários precisariam conscientemente permitir que a empresa fizesse sua coleta, antes que isso começasse. Mas a Meta não adotou esse caminho porque obviamente pouquíssimas pessoas topariam.

Não quer dizer que dados pessoais não possam ser usados para o treinamento de um modelo de IA. Mas as boas práticas indicam que o usuário seja avisado previamente e aceite cedê-los conscientemente. Além disso, a informação deve ser anonimizada.

E é importante que esse consentimento seja dado antes de a coleta ser iniciada, pois, uma vez que a informação é incorporada ao modelo, é virtualmente impossível removê-la individualmente. Mas a LGPD determina que, mesmo que alguém conceda acesso a seus dados, se decidir que não mais aceita, a informação deve ser apagada.

Por fim, há a polêmica de que os usuários sejam eventualmente remunerados por seus dados, essenciais para a criação de um produto bilionário. "Um sistema amplo de remuneração de dados pessoais não me parece tão prático ou desejável, porque eles geralmente são valiosos para empresas quando são massificados", explica Cárgano. "Isso pode tornar difícil para um indivíduo conseguir negociar um preço justo, se é que isso existe, para seus próprios dados", conclui.

Como se vê, há mais dúvidas que consensos no uso de nossas informações para treinamento de modelos de IA. Ainda haverá muito ranger de dentes e aplausos em torno da decisão da ANPD. Mas temos que ter em mente também que muitas outras empresas estão fazendo exatamente o mesmo que a Meta, e precisam ser identificadas.

De todo jeito, tudo isso está servindo para a sociedade debater a questão. No final das contas, o que mais precisamos é que as big techs sejam mais transparentes e respeitem seus clientes, dois pontos em que elas historicamente falham feio!

 

Mark Zuckerberg, CEO da Meta: empresa quer usar dados de seus usuários para treinar sua IA - Foto: Anthony Quintano/Creative Commons

Na terça passada (2), a Autoridade Nacional de Proteção de Dados (ANPD) tomou a decisão de mais visibilidade e impacto da sua existência de cinco anos: proibiu a Meta (empresa dona do Facebook, Instagram e WhatsApp) de usar os dados dos usuários para treinar seus modelos de inteligência artificial. É a primeira vez que o órgão age contra uma big tech, em um movimento que impacta todos os internautas do país.

Segundo a ANPD, a maneira como a empresa está usando esses dados violaria a Lei Geral de Proteção de Dados (LGPD). O ineditismo da medida não se dá apenas pela sua abrangência, mas também por tratar de algo ligado à IA, uma área que empresas, governos e usuários ainda tentam compreender toda sua enorme complexidade.

Mas eventuais lacunas nesse entendimento não podem ser usadas por empresas para abusar de seus usuários e do mercado. Como não há legislação sobre a IA definida na maioria dos países, práticas como a da Meta levantam muitos questionamentos.

Afinal, os usuários podem ficar em risco ou serem expostos com isso? Esse comportamento configura um abuso de poder econômico? Não seria melhor as pessoas decidirem compartilhar os seus dados, ao invés de isso acontecer sem seu consentimento e até conhecimento? Se nossos dados são tão valiosos para as big techs criarem produtos que lhes rendem bilhões de dólares, não deveríamos ser remunerados por eles? E acima de tudo, será que as pessoas sequer entendem esse mundo em acelerada transformação diante de seus olhos?

É um terreno pantanoso! Por isso, qualquer que seja o desfecho da decisão da ANPD, o debate em torno dela já oferece um grande ganho para a sociedade.

Veja esse artigo em vídeo:

A Meta atualizou a política de privacidade de seus serviços para usar as informações de todos os posts públicos dos usuários, feitos de agora em diante e também no passado. Mas as pessoas não viram a nova regra ou, se viram, não leram ou sequer entenderam. E, como de costume, aceitaram, pois essa é uma condição para continuar usando esses produtos que se tornaram centrais em suas vidas.

As pessoas não esperam que seus posts sejam usados para treinar uma IA. Por conta disso e por entender que o formulário para os usuários se oporem a coleta de seus dados ser de difícil acesso, exigindo que a pessoa vença nove etapas, a ANPD anulou a atualização da política e determinou que a coleta seja interrompida imediatamente.

A Meta pode ser multada em R$ 50 mil por dia em que não cumprir a determinação. E vale dizer que a companhia enfrenta uma proibição semelhante na Europa.

Obviamente, a empresa reclamou! Em nota, disse estar desapontada com a decisão da ANPD, e que eles são mais transparentes no treinamento de sua IA que muitas outras empresas. Afirma ainda que a proibição seria um retrocesso para a inovação e a para a competividade no desenvolvimento de IA, podendo atrasar a chegada de seus benefícios para os brasileiros.

A Meta quer usar os textos, imagens, áudios e vídeos dos posts de seus usuários porque os modelos de linguagem amplos (da sigla em inglês LLM), que viabilizam plataformas de inteligência artificial generativa, como o ChatGPT, dependem de quantidades gigantescas de informações para serem treinados. Sem isso, são incapazes de dar respostas de qualidade.

Os posts nas redes sociais são uma fonte suculenta desse tipo de informação, mas sua coleta pode trazer riscos aos usuários. "É possível pensar em clonagem de voz e vídeo por IA para enganar familiares, amigos e colegas, ou mesmo extorsão por meio de deepfakes", explica Marcelo Cárgano, advogado especialista em direito digital do Abe Advogados.

Segundo ele, esse uso dos dados pode ainda levar a uma "discriminação algorítmica", quando os sistemas determinam que grupos selecionados serão desfavorecidos em processos como ofertas de crédito, emprego ou serviços públicos. "E em regimes autoritários, dados pessoais podem alimentar sistemas de IA preditiva comportamental, aumentando a vigilância e a repressão sobre a população", adverte.

 

Pedir para entrar ou para sair?

Nesse caso, a Meta fez o chamado "opt-out" com seus usuários. Ou seja, assumiu que todos aceitariam que seus dados fossem coletados. Quem não quisesse bastaria pedir para sair. O problema é que, como a ANPD corretamente apontou, as pessoas nem sabem que seus dados estão sendo coletados, não entendem isso e o processo para se oporem à coleta é muito difícil, o que, na prática, pode fazer com que muita gente ceda seus dados sem assim desejar.

Do ponto de vista de privacidade e respeito às pessoas, o processo deveria ser o contrário: um "opt-in". Nesse caso, os usuários precisariam conscientemente permitir que a empresa fizesse sua coleta, antes que isso começasse. Mas a Meta não adotou esse caminho porque obviamente pouquíssimas pessoas topariam.

Não quer dizer que dados pessoais não possam ser usados para o treinamento de um modelo de IA. Mas as boas práticas indicam que o usuário seja avisado previamente e aceite cedê-los conscientemente. Além disso, a informação deve ser anonimizada.

E é importante que esse consentimento seja dado antes de a coleta ser iniciada, pois, uma vez que a informação é incorporada ao modelo, é virtualmente impossível removê-la individualmente. Mas a LGPD determina que, mesmo que alguém conceda acesso a seus dados, se decidir que não mais aceita, a informação deve ser apagada.

Por fim, há a polêmica de que os usuários sejam eventualmente remunerados por seus dados, essenciais para a criação de um produto bilionário. "Um sistema amplo de remuneração de dados pessoais não me parece tão prático ou desejável, porque eles geralmente são valiosos para empresas quando são massificados", explica Cárgano. "Isso pode tornar difícil para um indivíduo conseguir negociar um preço justo, se é que isso existe, para seus próprios dados", conclui.

Como se vê, há mais dúvidas que consensos no uso de nossas informações para treinamento de modelos de IA. Ainda haverá muito ranger de dentes e aplausos em torno da decisão da ANPD. Mas temos que ter em mente também que muitas outras empresas estão fazendo exatamente o mesmo que a Meta, e precisam ser identificadas.

De todo jeito, tudo isso está servindo para a sociedade debater a questão. No final das contas, o que mais precisamos é que as big techs sejam mais transparentes e respeitem seus clientes, dois pontos em que elas historicamente falham feio!

 

Opinião por Paulo Silvestre

É jornalista, consultor e palestrante de customer experience, mídia, cultura e transformação digital. É professor da Universidade Mackenzie e da PUC–SP, e articulista do Estadão. Foi executivo na AOL, Editora Abril, Estadão, Saraiva e Samsung. Mestre em Tecnologias da Inteligência e Design Digital pela PUC-SP, é LinkedIn Top Voice desde 2016.

Atualizamos nossa política de cookies

Ao utilizar nossos serviços, você aceita a política de monitoramento de cookies.