A Alphabet, empresa dona do Google, fez um alerta aos seus funcionários quanto ao uso de ferramentas de inteligência artificial (IA) gerativa. A gigante aconselhou que não sejam inseridas informações confidenciais ou sensíveis em chatbots, como o ChatGPT.
Segundo informações da Reuters, a atenção deve ser estendida até mesmo ao Bard, ferramenta do próprio Google. A informação foi divulgada nesta quinta-feira, 15, pela agência de notícias e confirmada pela empresa, que afirma que o alerta está alinhado a um política de longa data sobre proteção de informações.
A preocupação é a de que a IA reproduza dados absorvidos durante o treinamento, o que possibilita o vazamento de informações confidenciais. Também foi feita uma recomendação aos engenheiros da Alphabet para que evitem o uso direto dos códigos de computador que os chatbots podem gerar.
A big tech disse à Reuters que, embora ajude os programadores, o Bard, chatbot do próprio Google, possa fazer sugestões indesejadas de código. A companhia também declarou que pretende ser transparente a respeito das limitações de sua tecnologia.
Bilhões de dólares estão em jogo na corrida do Google contra a OpenAI e a Microsoft, desenvolvedora e maior financiadora do ChatGPT respectivamente. Os valores incluem investimentos e receitas ainda não reveladas de publicidade e computação em nuvem vindos de novos programas de inteligência artificial. Lidando com números altos, a Alphabet deseja evitar prejuízos comerciais com seu software de IA gerativa.
Outras grandes empresas, como Samsung, Amazon e Deutsche Bank, criaram métodos de proteção para as ferramentas de inteligência artificial a fim de evitar o vazamento de informações internas.
Até janeiro, cerca de 43% dos profissionais usavam o ChatGPT ou outras ferramentas de IA sem informar aos seus chefes durante o trabalho, segundo uma pesquisa realizada pela plataforma de networking Fishbowl. O levantamento incluiu quase 12 mil participantes, parte deles profissionais de empresas de destaque nos Estados Unidos.
Chatbots enfrentam preocupações com dados
Na terça-feira, 13, o lançamento do Bard foi adiado na Europa devido a uma exigência da Comissão de Proteção de Dados da Irlanda (IDPC), órgão regulador de dados da União Europeia. Na toada do alerta feito sobre o uso desse tipo de software, a empresa afirmou à Reuters que está em meio a conversas detalhadas sobre o assunto com o IDPC. Não há, entretanto, informações sobre uma nova data.
O ChatGPT já protagonizou situações semelhantes. Na Alemanha, na Itália e na Espanha há investigações em curso sobre o software desenvolvido pela OpenAI, que usa conteúdo de terceiros em seus métodos de treinamento.
A ferramenta chegou a ser proibida temporariamente na Itália devido a preocupações com possíveis violações ao Regulamento Geral de Proteção de Dados (GDPR), lei de proteção de dados do continente.
Entre as empresas, a lista daquelas que proibiram o ChatGPT no ambiente de trabalho, alegando preocupação com a segurança de clientes e dados, inclui nomes importantes do setor de tecnologia, como Samsung e Apple, além dos bancos J.P. Morgan, Deutsche Bank e Citi, e também a gigante varejista Amazon.
Os comentários são exclusivos para assinantes do Estadão.