Avanço acelerado da IA teria motivado expulsão de Sam Altman da OpenAI


Saída do chefe de alto nível da empresa de São Francisco chamou a atenção para uma divisão filosófica entre as pessoas que estão criando novos sistemas de IA

Por Cade Metz
Atualização:

THE NEW YORK TIMES — No último ano, Sam Altman levou a OpenAI à mesa dos adultos do setor de tecnologia. Graças ao seu chatbot ChatGPT, extremamente popular, a startup de São Francisco estava no centro de um boom de inteligência artificial (IA), e Altman, o presidente executivo da OpenAI, havia se tornado uma das pessoas mais reconhecidas no setor de tecnologia.

Mas esse sucesso gerou tensões dentro da empresa. Ilya Sutskever, um respeitado pesquisador de IA que cofundou a OpenAI com Altman e outras nove pessoas, estava cada vez mais preocupado com o fato de que a tecnologia da OpenAI poderia ser perigosa e que Altman não estava prestando atenção suficiente a esse risco, de acordo com três pessoas familiarizadas com seu pensamento. Sutskever, membro do conselho de administração da empresa, também se opôs ao que ele considerava seu papel reduzido dentro da empresa, de acordo com duas das pessoas.

Esse conflito entre o crescimento rápido e a segurança da IA ficou em evidência na tarde de sexta-feira, quando Altman foi afastado de seu cargo por quatro dos seis membros da diretoria da OpenAI, liderados por Sutskever. A medida chocou os funcionários da OpenAI e o restante do setor de tecnologia, incluindo a Microsoft, que investiu US$ 13 bilhões na empresa. Algumas pessoas do setor estavam dizendo que a divisão era tão significativa quanto quando Steve Jobs foi forçado a sair da Apple em 1985.

continua após a publicidade

Mas, no sábado, em uma reviravolta, Altman estaria em discussões com a diretoria da OpenAI sobre o retorno à empresa.

Sam Altman foi expulso da OpenAI na sexta-feira, startup que fundou em 2015 Foto: Eric Risberg/AP

A demissão de Altman, 38, na sexta-feira, chamou a atenção para uma antiga divisão na comunidade de IA entre pessoas que acreditam que a IA é a maior oportunidade de negócios em uma geração e outras que se preocupam com o fato de que avançar rápido demais pode ser perigoso. E a votação para removê-lo mostrou como um movimento filosófico dedicado ao medo da IA havia se tornado uma parte inevitável da cultura tecnológica.

continua após a publicidade

Desde que o ChatGPT foi lançado, há quase um ano, a inteligência artificial capturou a imaginação do público, com a esperança de que pudesse ser usada para trabalhos importantes, como pesquisa de medicamentos ou para ajudar a ensinar crianças. No entanto, alguns cientistas e líderes políticos de IA se preocupam com seus riscos, como a extinção de empregos automatizados ou a guerra autônoma que cresce além do controle humano.

O receio de que os pesquisadores de IA estejam criando algo perigoso tem sido uma parte fundamental da cultura da OpenAI. Seus fundadores acreditavam que, por entenderem esses riscos, eram as pessoas certas para construí-la.

Saída repentina assustou

continua após a publicidade

A diretoria da OpenAI não ofereceu um motivo específico para a expulsão do Sr. Altman, além de dizer em um post de blog que não acreditava que ele estivesse se comunicando honestamente com eles. Os funcionários da OpenAI foram informados na manhã de sábado que sua remoção não tinha nada a ver com “má conduta ou qualquer coisa relacionada às nossas práticas financeiras, comerciais, de segurança ou de proteção/privacidade”, de acordo com uma mensagem vista pelo The New York Times.

Greg Brockman, outro cofundador e presidente da empresa, pediu demissão em protesto na noite de sexta-feira. O mesmo aconteceu com o diretor de pesquisa da OpenAI. Na manhã de sábado, a empresa estava um caos, de acordo com meia dúzia de funcionários atuais e antigos, e seus cerca de 700 funcionários estavam lutando para entender por que o conselho tomou a decisão.

continua após a publicidade

“Tenho certeza de que todos vocês estão confusos, tristes e talvez com algum medo”, disse Brad Lightcap, diretor de operações da OpenAI, em um memorando aos funcionários da empresa. “Estamos totalmente focados em lidar com isso, buscando uma resolução e clareza, e voltando ao trabalho.”

Na sexta-feira, Altman foi convidado a participar de uma reunião da diretoria por vídeo ao meio-dia em São Francisco. Lá, Sutskever, 37 anos, leu um roteiro que se assemelhava muito à postagem do blog que a empresa publicou minutos depois, de acordo com uma pessoa familiarizada com o assunto. A publicação dizia que Altman “não foi consistentemente sincero em suas comunicações com o conselho, prejudicando sua capacidade de exercer suas responsabilidades”.

Mas nas horas que se seguiram, os funcionários da OpenAI e outros se concentraram não apenas no que Altman pode ter feito, mas na forma como a startup de São Francisco está estruturada e nas visões extremas sobre os perigos da IA incorporadas ao trabalho da empresa desde que ela foi criada em 2015.

continua após a publicidade

Sutskever e Altman não puderam ser contatados para comentar o assunto no sábado.

Debandada pós-Altman

Nas últimas semanas, Jakub Pachocki, que ajudou a supervisionar a GPT-4, a tecnologia que está no centro do ChatGPT, foi promovido a diretor de pesquisa da empresa. Depois de ocupar um cargo abaixo de Sutskever, ele foi elevado a uma posição ao lado de Sutskever, de acordo com duas pessoas familiarizadas com o assunto.

continua após a publicidade

Pachocki deixou a empresa no final da sexta-feira, disseram as pessoas, logo após Brockman. No início do dia, a OpenAI disse que Brockman havia sido removido do cargo de presidente do conselho e se reportaria à nova presidente-executiva interina, Mira Murati. Outros aliados de Altman (incluindo dois pesquisadores sênior, Szymon Sidor e Aleksander Madry) também deixaram a empresa.

Mira Murati foi escolhida para ser a presidente-executiva da OpenAI após saída de Altman Foto: Mira Murati/LinkedIn

Brockman disse em um post no X, antigo Twitter, que, mesmo sendo o presidente do conselho, ele não participou da reunião do conselho em que Altman foi destituído. Isso deixou Sutskever e três outros membros do conselho: Adam D’Angelo, executivo-chefe do site de perguntas e respostas Quora; Tasha McCauley, cientista adjunta de gerenciamento sênior da RAND Corporation; e Helen Toner, diretora de estratégia e subsídios de pesquisa fundamental do Centro de Segurança e Tecnologia Emergente da Universidade de Georgetown.

Elas não puderam ser contatadas para comentar o assunto no sábado.

McCauley e Toner têm vínculos com os movimentos Racionalista e Altruísta Eficaz, uma comunidade que está profundamente preocupada com o fato de que a IA poderá um dia destruir a humanidade. A tecnologia de IA atual não pode destruir a humanidade. Mas essa comunidade acredita que, à medida que a tecnologia se torna cada vez mais poderosa, esses perigos surgirão.

Em 2021, um pesquisador chamado Dario Amodei, que também tem vínculos com essa comunidade, e cerca de 15 outros funcionários da OpenAI deixaram a empresa para formar uma nova empresa de IA chamada Anthropic.

Sutskever estava cada vez mais alinhado com essas crenças. Nascido na União Soviética, ele passou seus anos de formação em Israel e emigrou para o Canadá quando era adolescente. Como estudante de pós-graduação na Universidade de Toronto, ele ajudou a criar um avanço em uma tecnologia de IA chamada redes neurais.

Em 2015, Sutskever deixou um emprego no Google e ajudou a fundar a OpenAI ao lado de Altman, Brockman e do executivo-chefe da Tesla, Elon Musk. Eles criaram o laboratório como uma organização sem fins lucrativos, afirmando que, ao contrário do Google e de outras empresas, ele não seria movido por incentivos comerciais. Eles prometeram criar o que é chamado de inteligência artificial geral (AGI, na sigla em inglês), uma máquina que pode fazer tudo o que o cérebro humano pode fazer.

Altman transformou a OpenAI em uma empresa com fins lucrativos em 2018 e negociou um investimento de US$ 1 bilhão da Microsoft. Essas enormes somas de dinheiro são essenciais para desenvolver tecnologias como a GPT-4, que foi lançada no início deste ano. Desde seu investimento inicial, a Microsoft investiu outros US$ 12 bilhões na empresa.

A startup ainda era administrada por um conselho sem fins lucrativos. Investidores como a Microsoft recebem lucros da OpenAI, mas seus lucros são limitados. Qualquer valor acima do limite é canalizado de volta para a organização sem fins lucrativos.

Ao perceber o poder da GPT-4, Sutskever ajudou a criar uma nova equipe de Super Alinhamento dentro da empresa, que exploraria maneiras de garantir que as futuras versões da tecnologia não causassem danos.

O Altman estava aberto a essas preocupações, mas também queria que a OpenAI ficasse à frente de seus concorrentes muito maiores. No final de setembro, Altman viajou para o Oriente Médio para uma reunião com investidores, de acordo com duas pessoas familiarizadas com o assunto. Ele buscou um financiamento de até US$ 1 bilhão do SoftBank, a investidora japonesa em tecnologia liderada por Masayoshi Son, para um possível empreendimento da OpenAI que construiria um dispositivo de hardware para executar tecnologias de IA como o ChatGPT.

A OpenAI também está em negociações para obter financiamento de “oferta pública de aquisição” que permitiria aos funcionários resgatar ações da empresa. Esse acordo avaliaria a OpenAI em mais de US$ 80 bilhões, quase o triplo de seu valor há cerca de seis meses.

Mas o sucesso da empresa parece ter apenas aumentado as preocupações de que algo poderia dar errado com a IA.

“Não parece nada improvável que tenhamos computadores (data centers) muito mais inteligentes do que as pessoas”, disse Sutskever em um podcast em 2 de novembro. “O que essas IA fariam? Eu não sei.” / TRADUÇÃO POR GUILHERME GUERRA

THE NEW YORK TIMES — No último ano, Sam Altman levou a OpenAI à mesa dos adultos do setor de tecnologia. Graças ao seu chatbot ChatGPT, extremamente popular, a startup de São Francisco estava no centro de um boom de inteligência artificial (IA), e Altman, o presidente executivo da OpenAI, havia se tornado uma das pessoas mais reconhecidas no setor de tecnologia.

Mas esse sucesso gerou tensões dentro da empresa. Ilya Sutskever, um respeitado pesquisador de IA que cofundou a OpenAI com Altman e outras nove pessoas, estava cada vez mais preocupado com o fato de que a tecnologia da OpenAI poderia ser perigosa e que Altman não estava prestando atenção suficiente a esse risco, de acordo com três pessoas familiarizadas com seu pensamento. Sutskever, membro do conselho de administração da empresa, também se opôs ao que ele considerava seu papel reduzido dentro da empresa, de acordo com duas das pessoas.

Esse conflito entre o crescimento rápido e a segurança da IA ficou em evidência na tarde de sexta-feira, quando Altman foi afastado de seu cargo por quatro dos seis membros da diretoria da OpenAI, liderados por Sutskever. A medida chocou os funcionários da OpenAI e o restante do setor de tecnologia, incluindo a Microsoft, que investiu US$ 13 bilhões na empresa. Algumas pessoas do setor estavam dizendo que a divisão era tão significativa quanto quando Steve Jobs foi forçado a sair da Apple em 1985.

Mas, no sábado, em uma reviravolta, Altman estaria em discussões com a diretoria da OpenAI sobre o retorno à empresa.

Sam Altman foi expulso da OpenAI na sexta-feira, startup que fundou em 2015 Foto: Eric Risberg/AP

A demissão de Altman, 38, na sexta-feira, chamou a atenção para uma antiga divisão na comunidade de IA entre pessoas que acreditam que a IA é a maior oportunidade de negócios em uma geração e outras que se preocupam com o fato de que avançar rápido demais pode ser perigoso. E a votação para removê-lo mostrou como um movimento filosófico dedicado ao medo da IA havia se tornado uma parte inevitável da cultura tecnológica.

Desde que o ChatGPT foi lançado, há quase um ano, a inteligência artificial capturou a imaginação do público, com a esperança de que pudesse ser usada para trabalhos importantes, como pesquisa de medicamentos ou para ajudar a ensinar crianças. No entanto, alguns cientistas e líderes políticos de IA se preocupam com seus riscos, como a extinção de empregos automatizados ou a guerra autônoma que cresce além do controle humano.

O receio de que os pesquisadores de IA estejam criando algo perigoso tem sido uma parte fundamental da cultura da OpenAI. Seus fundadores acreditavam que, por entenderem esses riscos, eram as pessoas certas para construí-la.

Saída repentina assustou

A diretoria da OpenAI não ofereceu um motivo específico para a expulsão do Sr. Altman, além de dizer em um post de blog que não acreditava que ele estivesse se comunicando honestamente com eles. Os funcionários da OpenAI foram informados na manhã de sábado que sua remoção não tinha nada a ver com “má conduta ou qualquer coisa relacionada às nossas práticas financeiras, comerciais, de segurança ou de proteção/privacidade”, de acordo com uma mensagem vista pelo The New York Times.

Greg Brockman, outro cofundador e presidente da empresa, pediu demissão em protesto na noite de sexta-feira. O mesmo aconteceu com o diretor de pesquisa da OpenAI. Na manhã de sábado, a empresa estava um caos, de acordo com meia dúzia de funcionários atuais e antigos, e seus cerca de 700 funcionários estavam lutando para entender por que o conselho tomou a decisão.

“Tenho certeza de que todos vocês estão confusos, tristes e talvez com algum medo”, disse Brad Lightcap, diretor de operações da OpenAI, em um memorando aos funcionários da empresa. “Estamos totalmente focados em lidar com isso, buscando uma resolução e clareza, e voltando ao trabalho.”

Na sexta-feira, Altman foi convidado a participar de uma reunião da diretoria por vídeo ao meio-dia em São Francisco. Lá, Sutskever, 37 anos, leu um roteiro que se assemelhava muito à postagem do blog que a empresa publicou minutos depois, de acordo com uma pessoa familiarizada com o assunto. A publicação dizia que Altman “não foi consistentemente sincero em suas comunicações com o conselho, prejudicando sua capacidade de exercer suas responsabilidades”.

Mas nas horas que se seguiram, os funcionários da OpenAI e outros se concentraram não apenas no que Altman pode ter feito, mas na forma como a startup de São Francisco está estruturada e nas visões extremas sobre os perigos da IA incorporadas ao trabalho da empresa desde que ela foi criada em 2015.

Sutskever e Altman não puderam ser contatados para comentar o assunto no sábado.

Debandada pós-Altman

Nas últimas semanas, Jakub Pachocki, que ajudou a supervisionar a GPT-4, a tecnologia que está no centro do ChatGPT, foi promovido a diretor de pesquisa da empresa. Depois de ocupar um cargo abaixo de Sutskever, ele foi elevado a uma posição ao lado de Sutskever, de acordo com duas pessoas familiarizadas com o assunto.

Pachocki deixou a empresa no final da sexta-feira, disseram as pessoas, logo após Brockman. No início do dia, a OpenAI disse que Brockman havia sido removido do cargo de presidente do conselho e se reportaria à nova presidente-executiva interina, Mira Murati. Outros aliados de Altman (incluindo dois pesquisadores sênior, Szymon Sidor e Aleksander Madry) também deixaram a empresa.

Mira Murati foi escolhida para ser a presidente-executiva da OpenAI após saída de Altman Foto: Mira Murati/LinkedIn

Brockman disse em um post no X, antigo Twitter, que, mesmo sendo o presidente do conselho, ele não participou da reunião do conselho em que Altman foi destituído. Isso deixou Sutskever e três outros membros do conselho: Adam D’Angelo, executivo-chefe do site de perguntas e respostas Quora; Tasha McCauley, cientista adjunta de gerenciamento sênior da RAND Corporation; e Helen Toner, diretora de estratégia e subsídios de pesquisa fundamental do Centro de Segurança e Tecnologia Emergente da Universidade de Georgetown.

Elas não puderam ser contatadas para comentar o assunto no sábado.

McCauley e Toner têm vínculos com os movimentos Racionalista e Altruísta Eficaz, uma comunidade que está profundamente preocupada com o fato de que a IA poderá um dia destruir a humanidade. A tecnologia de IA atual não pode destruir a humanidade. Mas essa comunidade acredita que, à medida que a tecnologia se torna cada vez mais poderosa, esses perigos surgirão.

Em 2021, um pesquisador chamado Dario Amodei, que também tem vínculos com essa comunidade, e cerca de 15 outros funcionários da OpenAI deixaram a empresa para formar uma nova empresa de IA chamada Anthropic.

Sutskever estava cada vez mais alinhado com essas crenças. Nascido na União Soviética, ele passou seus anos de formação em Israel e emigrou para o Canadá quando era adolescente. Como estudante de pós-graduação na Universidade de Toronto, ele ajudou a criar um avanço em uma tecnologia de IA chamada redes neurais.

Em 2015, Sutskever deixou um emprego no Google e ajudou a fundar a OpenAI ao lado de Altman, Brockman e do executivo-chefe da Tesla, Elon Musk. Eles criaram o laboratório como uma organização sem fins lucrativos, afirmando que, ao contrário do Google e de outras empresas, ele não seria movido por incentivos comerciais. Eles prometeram criar o que é chamado de inteligência artificial geral (AGI, na sigla em inglês), uma máquina que pode fazer tudo o que o cérebro humano pode fazer.

Altman transformou a OpenAI em uma empresa com fins lucrativos em 2018 e negociou um investimento de US$ 1 bilhão da Microsoft. Essas enormes somas de dinheiro são essenciais para desenvolver tecnologias como a GPT-4, que foi lançada no início deste ano. Desde seu investimento inicial, a Microsoft investiu outros US$ 12 bilhões na empresa.

A startup ainda era administrada por um conselho sem fins lucrativos. Investidores como a Microsoft recebem lucros da OpenAI, mas seus lucros são limitados. Qualquer valor acima do limite é canalizado de volta para a organização sem fins lucrativos.

Ao perceber o poder da GPT-4, Sutskever ajudou a criar uma nova equipe de Super Alinhamento dentro da empresa, que exploraria maneiras de garantir que as futuras versões da tecnologia não causassem danos.

O Altman estava aberto a essas preocupações, mas também queria que a OpenAI ficasse à frente de seus concorrentes muito maiores. No final de setembro, Altman viajou para o Oriente Médio para uma reunião com investidores, de acordo com duas pessoas familiarizadas com o assunto. Ele buscou um financiamento de até US$ 1 bilhão do SoftBank, a investidora japonesa em tecnologia liderada por Masayoshi Son, para um possível empreendimento da OpenAI que construiria um dispositivo de hardware para executar tecnologias de IA como o ChatGPT.

A OpenAI também está em negociações para obter financiamento de “oferta pública de aquisição” que permitiria aos funcionários resgatar ações da empresa. Esse acordo avaliaria a OpenAI em mais de US$ 80 bilhões, quase o triplo de seu valor há cerca de seis meses.

Mas o sucesso da empresa parece ter apenas aumentado as preocupações de que algo poderia dar errado com a IA.

“Não parece nada improvável que tenhamos computadores (data centers) muito mais inteligentes do que as pessoas”, disse Sutskever em um podcast em 2 de novembro. “O que essas IA fariam? Eu não sei.” / TRADUÇÃO POR GUILHERME GUERRA

THE NEW YORK TIMES — No último ano, Sam Altman levou a OpenAI à mesa dos adultos do setor de tecnologia. Graças ao seu chatbot ChatGPT, extremamente popular, a startup de São Francisco estava no centro de um boom de inteligência artificial (IA), e Altman, o presidente executivo da OpenAI, havia se tornado uma das pessoas mais reconhecidas no setor de tecnologia.

Mas esse sucesso gerou tensões dentro da empresa. Ilya Sutskever, um respeitado pesquisador de IA que cofundou a OpenAI com Altman e outras nove pessoas, estava cada vez mais preocupado com o fato de que a tecnologia da OpenAI poderia ser perigosa e que Altman não estava prestando atenção suficiente a esse risco, de acordo com três pessoas familiarizadas com seu pensamento. Sutskever, membro do conselho de administração da empresa, também se opôs ao que ele considerava seu papel reduzido dentro da empresa, de acordo com duas das pessoas.

Esse conflito entre o crescimento rápido e a segurança da IA ficou em evidência na tarde de sexta-feira, quando Altman foi afastado de seu cargo por quatro dos seis membros da diretoria da OpenAI, liderados por Sutskever. A medida chocou os funcionários da OpenAI e o restante do setor de tecnologia, incluindo a Microsoft, que investiu US$ 13 bilhões na empresa. Algumas pessoas do setor estavam dizendo que a divisão era tão significativa quanto quando Steve Jobs foi forçado a sair da Apple em 1985.

Mas, no sábado, em uma reviravolta, Altman estaria em discussões com a diretoria da OpenAI sobre o retorno à empresa.

Sam Altman foi expulso da OpenAI na sexta-feira, startup que fundou em 2015 Foto: Eric Risberg/AP

A demissão de Altman, 38, na sexta-feira, chamou a atenção para uma antiga divisão na comunidade de IA entre pessoas que acreditam que a IA é a maior oportunidade de negócios em uma geração e outras que se preocupam com o fato de que avançar rápido demais pode ser perigoso. E a votação para removê-lo mostrou como um movimento filosófico dedicado ao medo da IA havia se tornado uma parte inevitável da cultura tecnológica.

Desde que o ChatGPT foi lançado, há quase um ano, a inteligência artificial capturou a imaginação do público, com a esperança de que pudesse ser usada para trabalhos importantes, como pesquisa de medicamentos ou para ajudar a ensinar crianças. No entanto, alguns cientistas e líderes políticos de IA se preocupam com seus riscos, como a extinção de empregos automatizados ou a guerra autônoma que cresce além do controle humano.

O receio de que os pesquisadores de IA estejam criando algo perigoso tem sido uma parte fundamental da cultura da OpenAI. Seus fundadores acreditavam que, por entenderem esses riscos, eram as pessoas certas para construí-la.

Saída repentina assustou

A diretoria da OpenAI não ofereceu um motivo específico para a expulsão do Sr. Altman, além de dizer em um post de blog que não acreditava que ele estivesse se comunicando honestamente com eles. Os funcionários da OpenAI foram informados na manhã de sábado que sua remoção não tinha nada a ver com “má conduta ou qualquer coisa relacionada às nossas práticas financeiras, comerciais, de segurança ou de proteção/privacidade”, de acordo com uma mensagem vista pelo The New York Times.

Greg Brockman, outro cofundador e presidente da empresa, pediu demissão em protesto na noite de sexta-feira. O mesmo aconteceu com o diretor de pesquisa da OpenAI. Na manhã de sábado, a empresa estava um caos, de acordo com meia dúzia de funcionários atuais e antigos, e seus cerca de 700 funcionários estavam lutando para entender por que o conselho tomou a decisão.

“Tenho certeza de que todos vocês estão confusos, tristes e talvez com algum medo”, disse Brad Lightcap, diretor de operações da OpenAI, em um memorando aos funcionários da empresa. “Estamos totalmente focados em lidar com isso, buscando uma resolução e clareza, e voltando ao trabalho.”

Na sexta-feira, Altman foi convidado a participar de uma reunião da diretoria por vídeo ao meio-dia em São Francisco. Lá, Sutskever, 37 anos, leu um roteiro que se assemelhava muito à postagem do blog que a empresa publicou minutos depois, de acordo com uma pessoa familiarizada com o assunto. A publicação dizia que Altman “não foi consistentemente sincero em suas comunicações com o conselho, prejudicando sua capacidade de exercer suas responsabilidades”.

Mas nas horas que se seguiram, os funcionários da OpenAI e outros se concentraram não apenas no que Altman pode ter feito, mas na forma como a startup de São Francisco está estruturada e nas visões extremas sobre os perigos da IA incorporadas ao trabalho da empresa desde que ela foi criada em 2015.

Sutskever e Altman não puderam ser contatados para comentar o assunto no sábado.

Debandada pós-Altman

Nas últimas semanas, Jakub Pachocki, que ajudou a supervisionar a GPT-4, a tecnologia que está no centro do ChatGPT, foi promovido a diretor de pesquisa da empresa. Depois de ocupar um cargo abaixo de Sutskever, ele foi elevado a uma posição ao lado de Sutskever, de acordo com duas pessoas familiarizadas com o assunto.

Pachocki deixou a empresa no final da sexta-feira, disseram as pessoas, logo após Brockman. No início do dia, a OpenAI disse que Brockman havia sido removido do cargo de presidente do conselho e se reportaria à nova presidente-executiva interina, Mira Murati. Outros aliados de Altman (incluindo dois pesquisadores sênior, Szymon Sidor e Aleksander Madry) também deixaram a empresa.

Mira Murati foi escolhida para ser a presidente-executiva da OpenAI após saída de Altman Foto: Mira Murati/LinkedIn

Brockman disse em um post no X, antigo Twitter, que, mesmo sendo o presidente do conselho, ele não participou da reunião do conselho em que Altman foi destituído. Isso deixou Sutskever e três outros membros do conselho: Adam D’Angelo, executivo-chefe do site de perguntas e respostas Quora; Tasha McCauley, cientista adjunta de gerenciamento sênior da RAND Corporation; e Helen Toner, diretora de estratégia e subsídios de pesquisa fundamental do Centro de Segurança e Tecnologia Emergente da Universidade de Georgetown.

Elas não puderam ser contatadas para comentar o assunto no sábado.

McCauley e Toner têm vínculos com os movimentos Racionalista e Altruísta Eficaz, uma comunidade que está profundamente preocupada com o fato de que a IA poderá um dia destruir a humanidade. A tecnologia de IA atual não pode destruir a humanidade. Mas essa comunidade acredita que, à medida que a tecnologia se torna cada vez mais poderosa, esses perigos surgirão.

Em 2021, um pesquisador chamado Dario Amodei, que também tem vínculos com essa comunidade, e cerca de 15 outros funcionários da OpenAI deixaram a empresa para formar uma nova empresa de IA chamada Anthropic.

Sutskever estava cada vez mais alinhado com essas crenças. Nascido na União Soviética, ele passou seus anos de formação em Israel e emigrou para o Canadá quando era adolescente. Como estudante de pós-graduação na Universidade de Toronto, ele ajudou a criar um avanço em uma tecnologia de IA chamada redes neurais.

Em 2015, Sutskever deixou um emprego no Google e ajudou a fundar a OpenAI ao lado de Altman, Brockman e do executivo-chefe da Tesla, Elon Musk. Eles criaram o laboratório como uma organização sem fins lucrativos, afirmando que, ao contrário do Google e de outras empresas, ele não seria movido por incentivos comerciais. Eles prometeram criar o que é chamado de inteligência artificial geral (AGI, na sigla em inglês), uma máquina que pode fazer tudo o que o cérebro humano pode fazer.

Altman transformou a OpenAI em uma empresa com fins lucrativos em 2018 e negociou um investimento de US$ 1 bilhão da Microsoft. Essas enormes somas de dinheiro são essenciais para desenvolver tecnologias como a GPT-4, que foi lançada no início deste ano. Desde seu investimento inicial, a Microsoft investiu outros US$ 12 bilhões na empresa.

A startup ainda era administrada por um conselho sem fins lucrativos. Investidores como a Microsoft recebem lucros da OpenAI, mas seus lucros são limitados. Qualquer valor acima do limite é canalizado de volta para a organização sem fins lucrativos.

Ao perceber o poder da GPT-4, Sutskever ajudou a criar uma nova equipe de Super Alinhamento dentro da empresa, que exploraria maneiras de garantir que as futuras versões da tecnologia não causassem danos.

O Altman estava aberto a essas preocupações, mas também queria que a OpenAI ficasse à frente de seus concorrentes muito maiores. No final de setembro, Altman viajou para o Oriente Médio para uma reunião com investidores, de acordo com duas pessoas familiarizadas com o assunto. Ele buscou um financiamento de até US$ 1 bilhão do SoftBank, a investidora japonesa em tecnologia liderada por Masayoshi Son, para um possível empreendimento da OpenAI que construiria um dispositivo de hardware para executar tecnologias de IA como o ChatGPT.

A OpenAI também está em negociações para obter financiamento de “oferta pública de aquisição” que permitiria aos funcionários resgatar ações da empresa. Esse acordo avaliaria a OpenAI em mais de US$ 80 bilhões, quase o triplo de seu valor há cerca de seis meses.

Mas o sucesso da empresa parece ter apenas aumentado as preocupações de que algo poderia dar errado com a IA.

“Não parece nada improvável que tenhamos computadores (data centers) muito mais inteligentes do que as pessoas”, disse Sutskever em um podcast em 2 de novembro. “O que essas IA fariam? Eu não sei.” / TRADUÇÃO POR GUILHERME GUERRA

Atualizamos nossa política de cookies

Ao utilizar nossos serviços, você aceita a política de monitoramento de cookies.