Desde que lançou o ChatGPT, abrindo as portas para a era da inteligência artificial (IA) generativa no mundo da tecnologia, a OpenAI se tornou uma das empresas mais consagradas do Vale do Silício. De acordo com o The New York Times, a empresa quase triplicou seu valor em menos de dez meses, valendo US$ 80 bilhões em fevereiro de 2024.
A grandeza, contudo, foi alcançada às custas de uma reputação vacilante, em razão de inúmeras controvérsias que a companhia vem desencadeando desde sua fundação, em 2015.
Conheça os casos mais polêmicos:
Enrascada com Scarlet Johansson
A controvérsia mais recente da empresa foi com a atriz Scarlett Johansson, que emprestou a voz ao filme Ela (2013), como uma inteligência artificial tão humanizada que se torna interesse amoroso do protagonista. A atriz alega que, em setembro passado, Sam Altman, presidente da OpenAI, a convidou para dar voz ao GPT-4. Johansson, contudo, recusou a oferta.
Com o lançamento do GPT-4o, no dia 13, amigos da atriz mostraram a ela a voz Sky, do chatbot, notando semelhanças com a voz da atriz — o que ressoou na imprensa e entre usuários de redes sociais.
“Quando ouvi a demonstração lançada, fiquei chocada, irritada e incrédula com o fato de Altman ter buscado uma voz que soava tão estranhamente parecida com a minha que meus amigos mais próximos e os veículos de notícias não conseguiam perceber a diferença”, disse Johansson, em uma nota pública.
A atriz diz ter contratado um advogado, que enviou duas cartas à Altman e à OpenAI, pedindo a eles detalhes de como haviam criado uma voz tão similar à de Johansson. “Consequentemente, a OpenAI concordou, com relutância, em retirar a voz ‘Sky’”.
Em entrevista ao The Verge na semana passada, a CTO da OpenAI, Mira Murati, negou que a voz parecida com a da atriz seja proposital. Além disso, durante a demonstração ao vivo do ChatGPT-4o, Altman, fez uma referência ao papel de Scarlett no filme, postando “her” (ela, em inglês) no X (antigo Twitter). Em outras ocasiões, Altman já disse que esse é o seu filme favorito.
Em um comunicado, a OpenAI negou qualquer semelhança, afirmando que “a voz de ‘Sky’ não é uma imitação de Scarlett Johansson, mas pertence a uma atriz profissional diferente usando sua própria voz natural”, escreveu a empresa. No entanto, a identidade da dubladora oficial não foi divulgada.
“Em uma época em que todos nós estamos lidando com deepfakes e com a proteção de nossa própria semelhança, nosso próprio trabalho e nossas próprias identidades, acredito que essas são questões que merecem clareza absoluta”, disse Johansson. “Aguardo ansiosamente uma solução na forma de transparência e a aprovação da legislação apropriada para ajudar a garantir que os direitos individuais sejam protegidos.”
Tensões internas entre membros da alta cúpula
Cofundador da OpenAI e um de seus principais engenheiros, Ilya Sutskever deixou a companhia no dia 14 de maio. Sua saída está ligada ao jogo de poder dentro da empresa, que culminou em uma tentativa de alguns membros do conselho, incluindo Sustkever, de remover Altman de seu cargo, no final de 2023. Contudo, essa tentativa falhou e Altman acabou sendo reintegrado uma semana depois de sua demissão, após uma onda de discordância por parte dos funcionários e pressão dos investidores.
Embora o conflito tenha sido entre Altman e a ex-membro do conselho Helen Toner, Sutskever apoiou Toner e pessoalmente comunicou que Altman estava sendo demitido em nome do conselho. Pesquisadora australiana de IA e especialista em segurança nacional relacionada à IA, Toner defendia um uso mais transparente e ético da tecnologia.
Em um artigo publicado no Centro de Segurança e Tecnologia Emergente (CSET) da Universidade de Georgetown, em Washington, onde é diretora, Toner fez críticas à maneira como a OpenAI havia lançado o ChatGPT e o GPT-4, destacando seus problemas com direitos autorais, condições de trabalho para anotadores de dados e a vulnerabilidade de seus produtos a “jailbreaks”, que permitem aos usuários contornar os controles de segurança.
Com a reviravolta e o apoio maciço a Altman, contudo, Sutskever se arrependeu de seu apoio à Toner e acabou assinando a carta dos funcionários exigindo o retorno de Altman. Quando Altman retornou, tanto Sutskever quanto Toner foram desligados do conselho.
Essa controvérsia interna escancarou as tensões dentro da OpenAI.
Leia Também:
Colecionando processos
Desde que lançou o ChatGPT, a OpenAI vem acumulando processos de autores, empresas de mídia e editoras, que alegam terem tido seus direitos autorais violados pelo chatbot da empresa americana.
O criador de Game of Thrones, George R.R. Martin, autor de As Crônicas de Gelo e Fogo, liderou uma ação coletiva com dezenas de autores contra a OpenAI em 2023, acusando a empresa de usar suas obras sem permissão para treinar sua IA sem pagar pelo licenciamento. Com o chatbot sendo alimentado com trechos de seus livros sem consentimento, compensação ou atribuição, os direitos dos autores estariam sendo violados, de acordo com a ação.
A maior e mais antiga organização profissional para escritores dos Estados Unidos, o Authors Guild, também processou a companhia, exigindo indenizações pelas oportunidades de licenciamento perdidas, alegando que a OpenAI está cometendo um “roubo sistemático em massa” de suas obras.
Dezenas de editoras e veículos de mídia também entraram com ações similares contra a OpenAI. O jornal The New York Times encabeça a lista, acusando a empresa de se apropriar de milhões de seus artigos para treinar sua IA sem pagamento ou permissão. Juntamente com outras empresas de mídia americanas, como o Chicago Tribune, as empresas alegam que os chatbots ainda creditaram falsamente as publicações por reportagens imprecisas ou enganosas, em função das “alucinações” da IA generativa, “manchando a reputação dos jornais e espalhando informações perigosas”.
Para evitar ter sua imagem manchada dos as ações, em tentativa de contornar o problema, a OpenAI passou a fazer acordos de licenciamento com grandes veículos de mídia internacionais, como o jornal inglês Financial Times, a editora alemã Axel Springer, a agência de notícias Associated Press, o jornal francês Le Monde e o espanhol El País, permitindo a empresa de usar seus conteúdos nas respostas do ChatGPT.
Perigoso demais
Em fevereiro de 2019 a OpenAI estava prestes a lançar o GPT-2 (sigla para Generative Pre-trained Transformer 2), então uma novidade no mundo das IAs generativas. Sua capacidade de gerar textos convincentes, contudo, trouxe um problema: as pessoas tendiam a acreditar neles até quando suas informações eram completamente inventadas.
Um estudo conduzido por colaboradores da Universidade Cornell, em Nova York, descobriu que os leitores, em média, acreditavam que as respostas do GPT-2 eram artigos de notícias genuínos quase tão frequentemente quanto os do New York Times. Os próprios pesquisadores também começaram a ter dificuldade de diferenciar o texto gerado pela máquina.
Quando a OpenAI percebeu o problema, ela inicialmente se recusou a fazer um lançamento público do código fonte do GPT-2, citando risco de uso malicioso, obsceno ou racista.
A decisão levou a uma polêmica: enquanto uns aplaudiam a empresa, que reconhecia o potencial danoso de sua tecnologia, outros achavam que, além de um exagero, a OpenAI poderia estar fazendo uma “jogada de marketing” para atrair a atenção para seu produto, supostamente tão poderoso que poderia causar uma crise informacional.
As preocupações iniciais de que o GPT-2 seria usado para o mal não se concretizaram e, em novembro de 2019, a OpenAI lançou sua versão completa, com 1,5 bilhão de parâmetros treinados com quarenta gigabytes de dados, “cerca de oito mil vezes maior do que as obras compiladas de Shakespeare”.
Disputa com Elon Musk
O presidente da SpaceX, Tesla e X (antigo Twitter), o bilionário Elon Musk, foi também cofundador da OpenAI em 2015. A organização sem fins lucrativos tinha como objetivo desenvolver uma inteligência artificial para beneficiar a humanidade. Contudo, enquanto a Tesla desenvolvia sua própria IA, Musk começou a demonstrar preocupação com relação à condução da OpenAI, que passava a buscar interesses comerciais, bem como à sua tecnologia, a qual ele considerava potencialmente prejudicial. Divergindo com a diretoria, em 2018, Musk anunciou sua saída da empresa.
Já em março de 2024, Musk entrou com uma ação judicial contra a OpenAI e seu presidente Sam Altman, alegando que a parceria da empresa com a Microsoft vai contra o compromisso assumido de não priorizar o lucro. O processo também envolve quebra de contrato, quebra de dever fiduciário e práticas comerciais injustas. O bilionário também pede que seja criada uma liminar para impedir que qualquer pessoa, inclusive a Microsoft, tenha benefícios próprios com a tecnologia da OpenAI.
A OpenAI não deixou barato e, em resposta à ameaça de Musk, acusou o bilionário de tentar transformar o então laboratório sem fins lucrativos em uma operação comercial, bem como incorporá-la à sua própria empresa Tesla.
A empresa afirma que Musk, bem como outros integrantes da OpenAI, sabiam que não conseguiriam atingir seu objetivo de criar uma inteligência artificial geral (AGI), similar ao cérebro humano, se continuasse a ser uma organização sem fins lucrativos. Assim, quando os líderes concordaram em criar uma empresa com fins lucrativos, os membros não ficaram felizes com a proposta do bilionário obter a maioria de suas ações, o controle inicial do conselho e ser o executivo-chefe, que lhe daria uma grande concentração de poder.
Quando sua proposta foi recusada, Musk sugeriu que a OpenAI fosse incorporada à sua empresa de carros elétricos Tesla. Assim que viu que a OpenAI não seguiria na direção sugerida por ele, o bilionário deixou a companhia, afirmando que sua probabilidade de sucesso seria zero e que ele criaria uma inteligência artificial concorrente dentro da Tesla, algo que ainda não aconteceu.