O LinkedIn se tornou o mais novo serviço de internet a coletar dados para treinar modelos de inteligência artificial (IA) generativa sem consentimento explícito dos usuários. A empresa introduziu uma nova configuração de privacidade que, por padrão, permite o uso de dados para esse fim, sem notificar os usuários ou atualizar sua política de privacidade de forma transparente.
A descoberta foi feita pelo site 404 Media, que encontrou relatos de usuários da rede social reclamando da prática. A empresa, que possui mais de 850 milhões de usuários em 200 países, só atualizou seus termos de serviço após ser contatada pela imprensa internacional. A opção de “usar meus dados para treinar modelos de IA para criar conteúdos” está ativada por padrão e só pode ser desativada manualmente.
Em sua página de suporte, o LinkedIn justifica a coleta de dados afirmando que ela “se aplica ao treinamento e ao ajuste fino de modelos de IA generativos que são usados para gerar conteúdo” pela rede e suas empresas afiliadas. A empresa também alega utilizar “tecnologias de aprimoramento da privacidade para editar ou remover dados pessoais” de seus conjuntos de treinamento.
Leia também
Procurada pelo Estadão, a plataforma se pronunciou sobre o assunto dizendo que começou a implementar a configuração de exclusão do treinamento de IA generativa, juntamente com as comunicações relacionadas, há uma semana e que, além disso, já iniciaram “as notificações adicionais para os (as) usuários(as) via SMS, e-mail e na própria plataforma”. Ainda segundo a companhia, nesta quarta-feira, 18, foram atualizados o Contrato de Usuário, a Política de Privacidade e o Hub Regional de Privacidade, acompanhados de uma publicação no blog para usuários(as) e notificações por e-mail globalmente.
Em nota, o LinkedIn diz: “Estamos fazendo mudanças que oferecem às pessoas que usam o LinkedIn ainda mais opções e controle em relação a como utilizamos os dados para treinar nossa tecnologia de IA generativa. Estamos introduzindo novas ferramentas com IA que beneficiam todos(as) os(as) usuários(as), ao mesmo tempo em que garantimos que aqueles(as) que têm preferências específicas de privacidade tenham uma maneira fácil de optar por não participar. As pessoas podem escolher não participar, mas elas vêm ao LinkedIn para serem encontradas para empregos e networking, e a IA generativa é parte de como estamos ajudando os profissionais nessa transformação.”
O treinamento de IA generativa é utilizado para recursos como assistente de texto e elaboração de mensagens, adaptando-se à linguagem corporativa e aos jargões de diferentes áreas profissionais. A coleta de dados não se aplica a usuários da União Europeia. Apesar da Lei Geral de Proteção de Dados (LGPD), os brasileiros parecem estar incluídos no grupo que pode ter seus dados utilizados.
A lei, em vigor no Brasil desde setembro de 2020, exige que as empresas obtenham consentimento claro e inequívoco dos titulares dos dados antes de coletá-los e utilizá-los para qualquer finalidade.
Saiba como impedir que seus dados treinem a IA do LinkedIn
Apesar da preocupação gerada nos usuários, é possível desativar o uso de seus dados para treinamento de IA. Para impedir que o LinkedIn utilize seus dados para treinar IA, siga estes passos:
- Acesse seu perfil na rede social.
- Clique em Configurações e privacidade.
- Vá para a opção Privacidade dos dados.
- Na seção Como o LinkedIn utiliza seus dados, encontre a opção Dados para aprimoramento de IA generativa.
- Desmarque a opção Usar meus dados para treinar modelos de IA para criar conteúdos.
Leia também
Coleta de dados sem consentimento são recorrentes entre empresas de tecnologia
A prática do LinkedIn se assemelha a casos recentes de outras empresas de tecnologia. A Meta, dona do Facebook, Instagram e WhatsApp, foi obrigada a suspender a coleta de dados de brasileiros para treinar sua IA após determinação da Autoridade Nacional de Proteção de Dados (ANPD). A empresa só permitia que os usuários excluíssem seus dados da coleta por meio de um formulário de difícil acesso e sem divulgação oficial alegando “risco iminente de dano grave e irreparável ou de difícil reparação aos direitos fundamentais dos titulares afetados”.
Após a determinação da autoridade, a Meta apresentou um “plano de conformidade” para tornar mais transparente o uso de dados para treinamento de IA. A ANPD aprovou o plano, mas com algumas ressalvas e a obrigatoriedade de a Meta apresentar um cronograma de implementação, notificar os usuários antes de coletar seus dados e garantir o direito de oposição, ou seja, o usuário poder optar por não fornecer seus dados. A empresa afirma utilizar apenas dados de publicações abertas, mas ainda enfrenta questionamentos sobre como garante que informações sensíveis não sejam utilizadas.
Já o Google também passou por críticas ao alterar seus termos de uso, indicando o uso de informações públicas de seus usuários para treinar modelos de inteligência artificial, como o Gemini. Anteriormente a empresa afirmava utilizar dados públicos da web apenas para aprimorar ferramentas de idiomas e traduções. A nova redação do documento, no entanto, é mais ampla e indica que o Google irá coletar informações disponíveis publicamente online ou de outras fontes públicas para ajudar a treinar os seus modelos de IA, não especificando quais tipos de informação poderão ser utilizadas e como isso será feito.
A mudança gerou preocupações sobre a privacidade dos usuários, especialmente em relação a documentos de acesso público em ferramentas da própria empresa, como o Google Docs. Procurada pela reportagem, a empresa não se manifestou sobre o assunto.
Os comentários são exclusivos para assinantes do Estadão.