Google proíbe funcionários de colocar informações confidenciais em chatbots

Companhia aconselhou para o risco de vazamento de dados

PUBLICIDADE

Foto do author Redação
Por Redação

A Alphabet, empresa dona do Google, fez um alerta aos seus funcionários quanto ao uso de ferramentas de inteligência artificial (IA) gerativa. A gigante aconselhou que não sejam inseridas informações confidenciais ou sensíveis em chatbots, como o ChatGPT.

PUBLICIDADE

Segundo informações da Reuters, a atenção deve ser estendida até mesmo ao Bard, ferramenta do próprio Google. A informação foi divulgada nesta quinta-feira, 15, pela agência de notícias e confirmada pela empresa, que afirma que o alerta está alinhado a um política de longa data sobre proteção de informações.

A preocupação é a de que a IA reproduza dados absorvidos durante o treinamento, o que possibilita o vazamento de informações confidenciais. Também foi feita uma recomendação aos engenheiros da Alphabet para que evitem o uso direto dos códigos de computador que os chatbots podem gerar.

A big tech disse à Reuters que, embora ajude os programadores, o Bard, chatbot do próprio Google, possa fazer sugestões indesejadas de código. A companhia também declarou que pretende ser transparente a respeito das limitações de sua tecnologia.

Para o Google, risco é de que chatbots facilitem o vazamento de informações confidenciais Foto: Gonzalo Fuentes/Reuters

Bilhões de dólares estão em jogo na corrida do Google contra a OpenAI e a Microsoft, desenvolvedora e maior financiadora do ChatGPT respectivamente. Os valores incluem investimentos e receitas ainda não reveladas de publicidade e computação em nuvem vindos de novos programas de inteligência artificial. Lidando com números altos, a Alphabet deseja evitar prejuízos comerciais com seu software de IA gerativa.

Publicidade

Outras grandes empresas, como Samsung, Amazon e Deutsche Bank, criaram métodos de proteção para as ferramentas de inteligência artificial a fim de evitar o vazamento de informações internas.

Até janeiro, cerca de 43% dos profissionais usavam o ChatGPT ou outras ferramentas de IA sem informar aos seus chefes durante o trabalho, segundo uma pesquisa realizada pela plataforma de networking Fishbowl. O levantamento incluiu quase 12 mil participantes, parte deles profissionais de empresas de destaque nos Estados Unidos.

Chatbots enfrentam preocupações com dados

Na terça-feira, 13, o lançamento do Bard foi adiado na Europa devido a uma exigência da Comissão de Proteção de Dados da Irlanda (IDPC), órgão regulador de dados da União Europeia. Na toada do alerta feito sobre o uso desse tipo de software, a empresa afirmou à Reuters que está em meio a conversas detalhadas sobre o assunto com o IDPC. Não há, entretanto, informações sobre uma nova data.

O ChatGPT já protagonizou situações semelhantes. Na Alemanha, na Itália e na Espanha há investigações em curso sobre o software desenvolvido pela OpenAI, que usa conteúdo de terceiros em seus métodos de treinamento.

A ferramenta chegou a ser proibida temporariamente na Itália devido a preocupações com possíveis violações ao Regulamento Geral de Proteção de Dados (GDPR), lei de proteção de dados do continente.

Publicidade

Entre as empresas, a lista daquelas que proibiram o ChatGPT no ambiente de trabalho, alegando preocupação com a segurança de clientes e dados, inclui nomes importantes do setor de tecnologia, como Samsung e Apple, além dos bancos J.P. Morgan, Deutsche Bank e Citi, e também a gigante varejista Amazon.

Comentários

Os comentários são exclusivos para assinantes do Estadão.