A atual revolução da inteligência artificial (IA) não seria a mesma se não fosse um artigo científico publicado em 2017. Resultado do trabalho de oito pesquisadores do Google, o trabalho apresentava para o mundo o Transformer, modelo que permitiu o surgimento do GPT, o “cérebro” do ChatGPT. No entanto, o acirramento na disputa pela supremacia da tecnologia entre as gigantes do setor pode fazer com que um evento como esse nunca mais se repita - um cenário de consequências imprevisíveis nos avanços da inovação tecnológica.
No mês passado, o jornal Washington Post reportou que Jeff Dean, chefe de IA do Google, deu uma nova ordem interna para os seus pesquisadores: ser mais cauteloso na publicação de artigos científicos. É uma postura bastante diferente para uma companhia que ganhou fama por desenvolver pesquisa aberta na esperança de não apenas melhorar os próprios produtos como também promover avanços para áreas científicas. Desde 2019, cientistas da companhia publicaram mais de 500 artigos científicos.
Leia também
O site Insider cita um funcionário da companhia, que diz ter recebido a seguinte mensagem do comando do Google: “Não estamos mais no negócio de publicar tudo. Agora, é hora de competir e manter o conhecimento dentro de casa”. Portanto, a ordem seria de tentar absorver descobertas científicas aos produtos da empresa antes de divulgá-las para a comunidade científica - e para rivais. O Google não comentou as duas reportagens.
A mudança de clima ocorreu quando a OpenAI lançou o ChatGPT - não apenas o GPT foi originado do Transformer, como o aperfeiçoamento do modelo de IA do chatbot foi realizado de maneira aberta com sugestões e críticas da comunidade científica. No entanto, quando a popularidade da ferramenta explodiu, o clima de colaboração cientifica já havia evaporado.
Já posicionada como a nova gigante da tecnologia e grande parceira da Microsoft, a OpenAI passou a ser conhecida como “ClosedAI” por se recusar a trabalhar sob padrões mais abertos com a comunidade científica, passando a restringir o detalhamento de como seus modelos são treinados e a fazer lobby junto a legisladores para restringir a disponibilização de modelos abertos de IA. Justifica-se a inquietação: a consultoria McKinsey estima que a IA gerativa (classe da qual o ChatGPT é um exemplo) pode acrescentar anualmente US$ 4,4 trilhões à economia global.
Publicamente, o Google prefere adotar uma postura cautelosa na divulgação de ferramentas de IA, por considerar seu potencial perigoso. Internamente, porém, a companhia está precisando reagir com velocidade. O lançamento do chatbot Bard (ainda indisponível no Brasil) parece não ter abalado a popularidade do ChatGPT - e “esconder” descobertas científicas tornou-se um caminho para tentar diminuir a distância.
“O Google sempre foi muito aberto, sempre publicou seus resultados de pesquisa, sempre disponibilizou muitas ferramentas que estavam´prontas e adequadas para o uso’. O ChatGPT foi um problema, pois não estava pronto e foi liberado em um marketing agressivo de competição contra o Google”, afirma Fernando Osório, professor da Universidade de São Paulo (USP) em São Carlos. “Isso foi ruim, pois o Google se viu pressionado”, diz.
Todos perdem
Com o novo cenário de empresas mais fechadas, avanços tecnológicos ficam em perigo, avaliam especialistas. “Nessa decisão, toda a sociedade perde. As pesquisas do Google são consumidas, mas o Google também consome muitos estudos, que são revertidos em inovações para todos”, diz Anderson Soares, coordenador do Centro de Excelência em Inteligência Artificial da Universidade Federal de Goiás (UFG).
Não é preciso ir muito longe para entender como esse modelo gera avanços na vida real. Parte do trabalho da equipe de tecnologia do iFood é dedicado a olhar para publicações científicas, que possam resultar em melhorias na entrega de comida - além disso, a gigante brasileira usa soluções de IA desenvolvidas por diferentes nomes do setor, como Amazon, Google, OpenAI e Anthropic.
“A relação entre academia e empresas sempre foi muito importante para o desenvolvimento da tecnologia”, diz ao Estadão Flávio Stecca, vice-presidente de tecnologia do iFood. Ele conta que a companhia roda 124 modelos diferentes de IA em seus serviços e que nem tudo foi desenvolvido do zero - parte da tecnologia é fruto das diversas fontes na comunidade de IA. Mas não é só isso: algoritmos abertos podem garantir avanços na saúde, no varejo, na segurança e até na preservação de idiomas.
Embora seja um esforço para não perder terreno, a medida pode se voltar contra o próprio Google. “Isso diminui o interesse de pesquisadores de IA em trabalhar na empresa”, afirma Alexandre Chiavegatto Filho, diretor do Laboratório de Big Data e Análise Preditiva em Saúde da USP. “Cientistas da área tem interesse em avançá-la e a falta de liberdade pode afastar grandes profissionais. O maior capital na área de IA é o capital humano”, diz.
Uma das possíveis primeiras perdas significativas do Google após a mudança é a de Geoffrey Hinton, que deixou a gigante no começo de maio por vontade de, entre outras coisas, ter mais liberdade de se posicionar abertamente sobre os riscos da tecnologia. Vencedor do Prêmio Turing em 2018 (considerado o “Oscar da computação”), Hinton é visto como um dos “pais da IA moderna”.
“Isso vai deixar a Meta (ex-Facebook) como a última grande Big Tech comprometida com ciência aberta,” diz Chiavegatto. “Isso tem levado profissionais importantes para a empresa, como Yan LeCunn, que ganhou o Prêmio Turing com o Hinton”, diz.
Com a escalada na disputa pelo domínio do mercado, nem os mais potentes algoritmos conseguem prever até quando será assim.