PUBLICIDADE

Funcionários querem usar o ChatGPT no trabalho, mas chefes dizem não

Empresas sabem que a ferramenta de IA pode ser um divisor de águas na produtividade, mas medos sobre segurança e privacidade assustam gestores

PUBLICIDADE

Por Taylor Telford e Pranshu Verma

THE WASHINGTON POST - Quando Justin usou o ChatGPT no trabalho no início deste ano, ele ficou satisfeito com o quão útil foi. Cientista de pesquisa em uma empresa de biotecnologia da região de Boston, ele pediu ao chatbot para criar um protocolo de teste genético - uma tarefa que pode levar horas foi reduzida a segundos com a popular ferramenta de inteligência artificial.

PUBLICIDADE

Ele estava animado com quanto tempo o chatbot economizou, disse ele, mas, em abril, seus chefes emitiram um comunicado rigoroso: o ChatGPT estava proibido para uso dos funcionários. Eles não queriam que os trabalhadores inserissem segredos da empresa no chatbot (que recebe as perguntas das pessoas e responde com respostas realistas) e arriscassem que essa informação se tornasse pública.

“É um pouco decepcionante”, disse Justin, que falou sob a condição de usar apenas seu primeiro nome para discutir livremente as políticas da empresa. Mas ele entende que a proibição foi instituída por uma “abundância de precaução”, pois disse que a OpenAI é muito sigilosa sobre como seu chatbot funciona. “Nós realmente não sabemos o que está debaixo do capô”, disse ele.

Ferramentas de IA gerativas como o ChatGPT, da OpenAI, foram apontadas como fundamentais para o mundo do trabalho, com o potencial de aumentar a produtividade dos funcionários ao automatizar tarefas tediosas e despertar soluções criativas para problemas desafiadores.

À medida que a tecnologia está sendo integrada em plataformas de recursos humanos e outras ferramentas de trabalho, cria-se um desafio formidável para as empresas americanas. Grandes empresas como Apple, Spotify, Verizon e Samsung baniram ou restringiram como os funcionários podem usar ferramentas de IA gerativas no trabalho, citando preocupações de que a tecnologia possa colocar informações sensíveis da empresa e do cliente em risco.

Vários líderes corporativos disseram que estão banindo o ChatGPT para prevenir um cenário de pior caso onde um funcionário carrega código de computador proprietário ou discussões sensíveis da diretoria no chatbot enquanto busca ajuda no trabalho, colocando inadvertidamente essa informação em um banco de dados que a OpenAI poderia usar para treinar seu chatbot no futuro.

Os executivos se preocupam que hackers ou concorrentes possam simplesmente pedir ao chatbot por seus segredos e obtê-los, embora os especialistas em ciência da computação digam que não está claro quão válidas são essas preocupações.

Publicidade

Receios

O rápido avanço da IA está criando uma dinâmica em que as empresas estão experimentando tanto “o medo de perder algo quanto o medo de errar”, de acordo com Danielle Benecke, chefe global da prática de aprendizado de máquina do escritório de advocacia Baker McKenzie. As empresas estão preocupadas em prejudicar suas reputações, por não se moverem rápido o suficiente ou por se moverem rápido demais.

“Você quer ser um seguidor rápido, mas não quer cometer erros”, disse Benecke.

Sam Altman, CEO da OpenAI, disse em particular a alguns desenvolvedores que a empresa quer criar um ChatGPT “assistente pessoal superinteligente para o trabalho” que tenha conhecimento integrado sobre os funcionários e seu local de trabalho e possa redigir e-mails ou documentos no estilo de comunicação de uma pessoa com informações atualizadas sobre a empresa, de acordo com um relatório de junho no site The Information.

Sam Altman é o presidente executivo da OpenAI, empresa de inteligência artificial Foto: Patrick Semansky/AP

Representantes da OpenAI se recusaram a comentar sobre as preocupações de privacidade das empresas, mas apontaram para uma postagem de abril no site da OpenAI indicando que os usuários do ChatGPT poderiam conversar com o bot no modo privado e evitar que suas solicitações acabem em seus dados de treinamento.

PUBLICIDADE

As empresas há muito tempo lutam para permitir que os funcionários usem tecnologia de ponta no trabalho. Nos anos 2000, quando os sites de redes sociais apareceram pela primeira vez, muitas empresas as proibiram por medo de que desviassem a atenção dos funcionários do trabalho. Uma vez que a mídia social se tornou mais mainstream, essas restrições desapareceram em grande parte. Na década seguinte, as empresas estavam preocupadas em colocar seus dados corporativos em servidores na nuvem, mas agora essa prática se tornou comum.

O Google se destaca como uma empresa em ambos os lados do debate sobre a IA generativa — a gigante da tecnologia está comercializando seu próprio rival para o ChatGPT, Bard, enquanto também adverte seu pessoal contra o compartilhamento de informações confidenciais com chatbots, de acordo com reportagem da Reuters.

Embora o grande modelo de linguagem possa ser um ponto de partida para novas ideias e economizador de tempo, ele tem limitações com precisão e viés, James Manyika, vice-presidente sênior do Google, alertou em uma visão geral do Bard compartilhada com o The Washington Post. “Como todas as experiências baseadas em LLM, o Bard ainda cometerá erros”, lê o guia, usando a abreviação para “large language model”.

Publicidade

“Sempre dissemos aos funcionários para não compartilharem informações confidenciais e temos políticas internas rigorosas para proteger essas informações”, disse Robert Ferrara, gerente de comunicação do Google, em uma declaração ao Washington Post.

Em fevereiro, executivos da Verizon alertaram seus funcionários: Não usem o ChatGPT no trabalho.

Os motivos da proibição eram simples, disse a chefe jurídica da empresa, Vandana Venkatesh, em um vídeo dirigido aos funcionários. A Verizon tem a obrigação de não compartilhar coisas como informações do cliente, o código de software interno da empresa e outras propriedades intelectuais da Verizon com o ChatGPT ou ferramentas de inteligência artificial semelhantes, disse ela, porque a empresa não pode controlar o que acontece depois que foi inserido em tais plataformas.

A Verizon não respondeu aos pedidos de comentário do The Post.

Dúvidas sobre usos dos chatbots

Joseph B. Fuller, professor da Harvard Business School e co-líder de sua iniciativa sobre o futuro do trabalho, disse que os executivos estão relutantes em adaptar o chatbot às operações porque ainda há muitas perguntas sobre suas capacidades.

“As empresas não têm uma compreensão firme das implicações de permitir que funcionários individuais se envolvam com uma tecnologia tão poderosa, nem têm muita fé na compreensão de seus funcionários sobre os problemas envolvidos”, disse ele.

Fuller disse que é possível que as empresas proíbam temporariamente o ChatGPT enquanto aprendem mais sobre como ele funciona e avaliam os riscos que ele representa para os dados da empresa.

Publicidade

Ainda, ele previu que as empresas eventualmente integrarão a IA generativa em suas operações, porque em breve estarão competindo com startups que são construídas diretamente com essas ferramentas. Se esperarem muito, podem perder negócios para competidores emergentes.

Eser Rizaoglu, analista sênior da empresa de pesquisa Gartner, disse que os líderes de RH estão criando cada vez mais orientações sobre como usar o ChatGPT.

“Com o passar do tempo”, ele disse, os líderes de RH perceberam que “os chatbots de IA vieram para ficar”.

As empresas estão adotando uma série de abordagens para a IA generativa. Algumas, incluindo a empresa de defesa Northrop Grumman e a empresa de mídia iHeartMedia, optaram por proibições diretas, argumentando que o risco é grande demais para permitir que os funcionários experimentem. Essa abordagem tem sido comum em indústrias voltadas para o cliente, incluindo serviços financeiros, com o Deustche Bank e o JPMorgan Chase bloqueando o uso do ChatGPT nos últimos meses.

Outras, incluindo o escritório de advocacia Steptoe & Johnson, estão formulando políticas que dizem aos funcionários quando é e quando não é aceitável implantar a IA generativa. O escritório não queria banir o ChatGPT completamente, mas proibiu os funcionários de usá-lo e ferramentas similares no trabalho com clientes, de acordo com Donald Sternfeld, diretor de inovação do escritório.

ChatGPT foi lançado em novembro do ano passado pela OpenAI Foto: Dado Ruvic/Reuters

Sternfeld apontou para histórias de advertência, como a dos advogados de Nova York que foram recentemente sancionados após apresentarem um argumento legal gerado pelo ChatGPT que citava vários casos e opiniões legais fictícias.

ChatGPT “é treinado para dar uma resposta, mesmo quando não sabe”, disse Sternfeld. Para demonstrar seu ponto de vista, ele fez uma pergunta ao chatbot: Quem foi a primeira pessoa a atravessar a pé o Canal da Mancha? Ele recebeu uma conta convincente de uma pessoa fictícia completando uma tarefa impossível.

Publicidade

Atualmente, há “um pouco de ingenuidade” entre as empresas em relação às ferramentas de IA, mesmo quando seu lançamento cria uma “disrupção esteróide” em vários setores, de acordo com Arlene Arin Hahn, chefe global da prática de transações tecnológicas no escritório de advocacia White & Case. Ela está aconselhando os clientes a ficarem de olho nos desenvolvimentos da IA generativa e a estarem preparados para revisar constantemente suas políticas.

“Você precisa ter certeza de que está reservando a capacidade de mudar a política ... para que sua organização seja ágil e flexível o suficiente para permitir inovação sem sufocar a adoção de novas tecnologias”, disse Hahn.

Baker McKenzie foi uma das primeiras empresas de advocacia a autorizar o uso do ChatGPT para certas tarefas de funcionários, disse Benecke, e há “um apetite em praticamente todas as camadas de funcionários” para explorar como as ferramentas de IA generativa podem reduzir o trabalho enfadonho. Mas qualquer trabalho produzido com a ajuda da IA deve estar sujeito a uma supervisão humana rigorosa, dada a tendência da tecnologia de produzir respostas convincentes, mas falsas.

Yoon Kim, especialista em aprendizado de máquina e professor assistente do MIT, disse que as preocupações das empresas são válidas, mas que elas podem estar inflando os medos de que o ChatGPT divulgará segredos corporativos.

Kim disse que é tecnicamente possível que o chatbot use comandos sensíveis inseridos nele para dados de treinamento, mas também disse que a OpenAI construiu salvaguardas para evitar isso.

Ele acrescentou que, mesmo que não as houvesse, seria difícil para os “agentes mal-intencionados” acessarem dados proprietários inseridos no chatbot, por causa do enorme volume de dados em que o ChatGPT precisa aprender.

“Não está claro se a informação proprietária é inserida uma vez que ela pode ser extraída simplesmente perguntando”, disse ele.

Publicidade

Se a empresa de Justin permitisse que ele usasse o ChatGPT novamente, isso o ajudaria muito, ele disse.

“Isso reduz o tempo que leva para eu procurar... coisas”, disse ele. “Definitivamente é um grande economizador de tempo.”

Tudo Sobre
Comentários

Os comentários são exclusivos para assinantes do Estadão.