Como pesquisa de IA da Microsoft ajudou Elon Musk a processar criadores do ChatGPT


Em seu processo contra a OpenAI, criadora do ChatGPT, e seu executivo-chefe, Sam Altman, Musk se baseia em um artigo provocativo do parceiro mais próximo da startup

Por Karen Weise e Cade Metz
Atualização:

THE NEW YORK TIMES - Quando Elon Musk processou a OpenAI e seu executivo-chefe, Sam Altman, por quebra de contrato na quinta-feira, 29, ele transformou as alegações do parceiro mais próximo da startup, a Microsoft, em uma arma.

Ele citou repetidamente um artigo polêmico, mas altamente influente, escrito por pesquisadores e altos executivos da Microsoft sobre o poder do GPT-4, o sistema inovador de inteligência artificial que a OpenAI lançou em março do ano passado.

No artigo “Sparks of AGI”, o laboratório de pesquisa da Microsoft afirmou que - embora não entendesse como - o GPT-4 havia mostrado “faíscas” de “inteligência artificial geral” (ou AGI, na sigla em inglês) uma máquina capaz de fazer tudo o que o cérebro humano pode fazer.

continua após a publicidade
Na início do ano passado, o laboratório de pesquisa da Microsoft se tornou a primeira empresa a dizer que o GPT-4 mostrou "lampejos" de "inteligência geral artificial"  Foto: Grant Hindsley/The New York Times

Foi uma afirmação ousada e ocorreu no momento em que as maiores empresas de tecnologia do mundo estavam correndo para introduzir a IA em seus próprios produtos.

Musk está usando o artigo contra a OpenAI, dizendo que ele mostra como a startup voltou atrás em seus compromissos de não comercializar produtos realmente poderosos. A Microsoft e a OpenAI não quiseram comentar o processo. Musk também não respondeu a um pedido de comentário.

continua após a publicidade

Como surgiu o trabalho de pesquisa?

Uma equipe de pesquisadores da Microsoft, liderada por Sébastien Bubeck, um expatriado francês de 38 anos e ex-professor de Princeton, começou a testar uma versão inicial do GPT-4 no segundo semestre de 2022, meses antes de a tecnologia ser lançada ao público. A Microsoft comprometeu-se a investir US$ 13 bilhões na OpenAI e negociou acesso exclusivo às tecnologias subjacentes que alimentam seus sistemas de IA.

Ao conversar com o sistema, eles ficaram impressionados. Ele escreveu uma prova matemática complexa na forma de um poema, gerou um código de computador capaz de desenhar um unicórnio e explicou a melhor maneira de empilhar uma coleção aleatória e eclética de itens domésticos. Bubeck e seus colegas pesquisadores começaram a se perguntar se estavam testemunhando uma nova forma de inteligência.

continua após a publicidade

“Comecei sendo muito cético - e isso evoluiu para um sentimento de frustração, aborrecimento, talvez até medo”, disse Peter Lee, chefe de pesquisa da Microsoft. “Você pensa: de onde diabos isso está vindo?”

Qual é o papel do artigo no processo do Musk?

continua após a publicidade

Musk argumentou que a OpenAI havia violado seu contrato porque havia concordado em não comercializar nenhum produto que sua diretoria tivesse considerado AGI.

“O GPT-4 é um algoritmo de AGI”, escreveram os advogados de Musk. Segundo eles, isso significa que o sistema nunca deveria ter sido licenciado para a Microsoft.

A reclamação de Musk citou repetidamente o artigo de Sparks para argumentar que o GPT-4 era AGI. Seus advogados disseram que “os próprios cientistas da Microsoft reconhecem que o GPT-4 ‘atinge uma forma de inteligência geral’” e, dada “a amplitude e a profundidade dos recursos do GPT-4, acreditamos que ele poderia ser razoavelmente visto como uma versão inicial (ainda incompleta) de um sistema de inteligência geral artificial”.

continua após a publicidade
Sébastien Bubeck liderou uma equipe de pesquisadores da Microsoft para testar uma versão inicial do GPT-4 no outono de 2022, meses antes de a tecnologia ser lançada ao público  Foto: Meron Tekie Menghistab/The New York Times

Como ele foi recebido?

O artigo teve enorme influência desde que foi publicado, uma semana após o lançamento do GPT-4.

continua após a publicidade

Thomas Wolf, cofundador da Hugging Face, uma startup de IA de alto nível, escreveu no X no dia seguinte que o estudo “tinha exemplos completamente alucinantes” do GPT-4.

Desde então, a pesquisa da Microsoft foi citada por mais de 1,5 mil outros artigos, de acordo com o Google Scholar, sendo um dos artigos mais citados sobre IA nos últimos cinco anos, de acordo com o Semantic Scholar.

Ele também foi criticado por especialistas, inclusive alguns dentro da Microsoft, que estavam preocupados com a falta de rigor do artigo de 155 páginas que apoiava a alegação e alimentava um frenesi de marketing da IA.

O artigo não foi revisado por pares e seus resultados não podem ser reproduzidos, pois foi realizado em versões anteriores do GPT-4, que eram guardadas a sete chaves na Microsoft e na OpenAI. Como os autores observaram no artigo, eles não usaram a versão do GPT-4 que foi posteriormente liberada para o público, portanto, qualquer outra pessoa que replicasse os experimentos obteria resultados diferentes.

Alguns especialistas externos disseram que não estava claro se o GPT-4 e sistemas semelhantes apresentavam comportamento parecido ao raciocínio humano ou ao bom senso.

“Quando vemos um sistema ou uma máquina complicada, nós a antropomorfizamos; todo mundo faz isso - pessoas que trabalham na área e pessoas que não trabalham”, disse Alison Gopnik, professora da Universidade da Califórnia, em Berkeley. “Mas pensar nisso como uma comparação constante entre a I.A. e os seres humanos - como uma espécie de competição de game show - não é a maneira correta de pensar sobre isso.”

Houve outras reclamações?

Na introdução do artigo, os autores inicialmente definiram “inteligência” citando um artigo de opinião do jornal americano Wall Street Journal de 30 anos que, ao defender um conceito chamado Curva do Sino, afirmava que “judeus e asiáticos orientais” tinham maior probabilidade de ter QI mais alto do que “negros e hispânicos”.

O Dr. Lee, que está listado como autor do artigo, disse em uma entrevista no ano passado que, quando os pesquisadores estavam procurando definir a AGI, “nós a pegamos da Wikipedia”. Ele disse que, mais tarde, quando souberam da conexão com a Curva do Sino, “ficamos realmente envergonhados com isso e fizemos a alteração imediatamente”.

Eric Horvitz, cientista-chefe da Microsoft, que foi um dos principais colaboradores do artigo, escreveu em um e-mail que ele pessoalmente assumiu a responsabilidade pela inserção da referência, dizendo que tinha visto a referência em um artigo de um cofundador do laboratório DeepMind AI do Google e não tinha notado as referências racistas. Quando souberam disso, por meio de uma postagem no X, “ficamos horrorizados, pois estávamos simplesmente procurando uma definição razoavelmente ampla de inteligência dos psicólogos”, disse ele.

Peter Lee é diretor de pesquisas da Microsoft  Foto: Meron Tekie Menghistab/The New York Times

Isso é AGI ou não?

Quando os pesquisadores da Microsoft inicialmente escreveram o artigo, eles o chamaram de “Primeiro contato com um sistema AGI”. Mas alguns membros da equipe, incluindo o Dr. Horvitz, discordaram da caracterização.

Mais tarde, ele disse ao The New York Times que eles não estavam vendo algo que ele “chamaria de ‘inteligência geral artificial’, mas sim vislumbres por meio de sondas e, às vezes, resultados surpreendentemente poderosos”.

O GPT-4 está longe de fazer tudo o que o cérebro humano pode fazer.

Em uma mensagem enviada aos funcionários da OpenAI na tarde de sexta-feira, 1º., que foi vista pelo The Times, o diretor de estratégia da OpenAI, Jason Kwon, disse explicitamente que o GPT-4 não era AGI.

“Ela é capaz de resolver pequenas tarefas em muitos trabalhos, mas a proporção entre o trabalho realizado por um ser humano e o trabalho realizado pela GPT-4 na economia continua incrivelmente alta”, escreveu ele. “É importante ressaltar que uma AGI será um sistema altamente autônomo capaz de criar soluções inovadoras para desafios de longa data - o GPT-4 não pode fazer isso.”

Ainda assim, o artigo alimentou as alegações de alguns pesquisadores e especialistas de que o GPT-4 representava um passo significativo em direção à AGI e que empresas como a Microsoft e a OpenAI continuariam a aprimorar as habilidades de raciocínio da tecnologia.

O campo da IA ainda está amargamente dividido quanto ao grau de inteligência que a tecnologia tem hoje ou terá em breve. Se Musk conseguir o que quer, um júri poderá resolver a questão.

Este conteúdo foi traduzido com o auxílio de ferramentas de Inteligência Artificial e revisado por nossa equipe editorial. Saiba mais em nossa Política de IA.

THE NEW YORK TIMES - Quando Elon Musk processou a OpenAI e seu executivo-chefe, Sam Altman, por quebra de contrato na quinta-feira, 29, ele transformou as alegações do parceiro mais próximo da startup, a Microsoft, em uma arma.

Ele citou repetidamente um artigo polêmico, mas altamente influente, escrito por pesquisadores e altos executivos da Microsoft sobre o poder do GPT-4, o sistema inovador de inteligência artificial que a OpenAI lançou em março do ano passado.

No artigo “Sparks of AGI”, o laboratório de pesquisa da Microsoft afirmou que - embora não entendesse como - o GPT-4 havia mostrado “faíscas” de “inteligência artificial geral” (ou AGI, na sigla em inglês) uma máquina capaz de fazer tudo o que o cérebro humano pode fazer.

Na início do ano passado, o laboratório de pesquisa da Microsoft se tornou a primeira empresa a dizer que o GPT-4 mostrou "lampejos" de "inteligência geral artificial"  Foto: Grant Hindsley/The New York Times

Foi uma afirmação ousada e ocorreu no momento em que as maiores empresas de tecnologia do mundo estavam correndo para introduzir a IA em seus próprios produtos.

Musk está usando o artigo contra a OpenAI, dizendo que ele mostra como a startup voltou atrás em seus compromissos de não comercializar produtos realmente poderosos. A Microsoft e a OpenAI não quiseram comentar o processo. Musk também não respondeu a um pedido de comentário.

Como surgiu o trabalho de pesquisa?

Uma equipe de pesquisadores da Microsoft, liderada por Sébastien Bubeck, um expatriado francês de 38 anos e ex-professor de Princeton, começou a testar uma versão inicial do GPT-4 no segundo semestre de 2022, meses antes de a tecnologia ser lançada ao público. A Microsoft comprometeu-se a investir US$ 13 bilhões na OpenAI e negociou acesso exclusivo às tecnologias subjacentes que alimentam seus sistemas de IA.

Ao conversar com o sistema, eles ficaram impressionados. Ele escreveu uma prova matemática complexa na forma de um poema, gerou um código de computador capaz de desenhar um unicórnio e explicou a melhor maneira de empilhar uma coleção aleatória e eclética de itens domésticos. Bubeck e seus colegas pesquisadores começaram a se perguntar se estavam testemunhando uma nova forma de inteligência.

“Comecei sendo muito cético - e isso evoluiu para um sentimento de frustração, aborrecimento, talvez até medo”, disse Peter Lee, chefe de pesquisa da Microsoft. “Você pensa: de onde diabos isso está vindo?”

Qual é o papel do artigo no processo do Musk?

Musk argumentou que a OpenAI havia violado seu contrato porque havia concordado em não comercializar nenhum produto que sua diretoria tivesse considerado AGI.

“O GPT-4 é um algoritmo de AGI”, escreveram os advogados de Musk. Segundo eles, isso significa que o sistema nunca deveria ter sido licenciado para a Microsoft.

A reclamação de Musk citou repetidamente o artigo de Sparks para argumentar que o GPT-4 era AGI. Seus advogados disseram que “os próprios cientistas da Microsoft reconhecem que o GPT-4 ‘atinge uma forma de inteligência geral’” e, dada “a amplitude e a profundidade dos recursos do GPT-4, acreditamos que ele poderia ser razoavelmente visto como uma versão inicial (ainda incompleta) de um sistema de inteligência geral artificial”.

Sébastien Bubeck liderou uma equipe de pesquisadores da Microsoft para testar uma versão inicial do GPT-4 no outono de 2022, meses antes de a tecnologia ser lançada ao público  Foto: Meron Tekie Menghistab/The New York Times

Como ele foi recebido?

O artigo teve enorme influência desde que foi publicado, uma semana após o lançamento do GPT-4.

Thomas Wolf, cofundador da Hugging Face, uma startup de IA de alto nível, escreveu no X no dia seguinte que o estudo “tinha exemplos completamente alucinantes” do GPT-4.

Desde então, a pesquisa da Microsoft foi citada por mais de 1,5 mil outros artigos, de acordo com o Google Scholar, sendo um dos artigos mais citados sobre IA nos últimos cinco anos, de acordo com o Semantic Scholar.

Ele também foi criticado por especialistas, inclusive alguns dentro da Microsoft, que estavam preocupados com a falta de rigor do artigo de 155 páginas que apoiava a alegação e alimentava um frenesi de marketing da IA.

O artigo não foi revisado por pares e seus resultados não podem ser reproduzidos, pois foi realizado em versões anteriores do GPT-4, que eram guardadas a sete chaves na Microsoft e na OpenAI. Como os autores observaram no artigo, eles não usaram a versão do GPT-4 que foi posteriormente liberada para o público, portanto, qualquer outra pessoa que replicasse os experimentos obteria resultados diferentes.

Alguns especialistas externos disseram que não estava claro se o GPT-4 e sistemas semelhantes apresentavam comportamento parecido ao raciocínio humano ou ao bom senso.

“Quando vemos um sistema ou uma máquina complicada, nós a antropomorfizamos; todo mundo faz isso - pessoas que trabalham na área e pessoas que não trabalham”, disse Alison Gopnik, professora da Universidade da Califórnia, em Berkeley. “Mas pensar nisso como uma comparação constante entre a I.A. e os seres humanos - como uma espécie de competição de game show - não é a maneira correta de pensar sobre isso.”

Houve outras reclamações?

Na introdução do artigo, os autores inicialmente definiram “inteligência” citando um artigo de opinião do jornal americano Wall Street Journal de 30 anos que, ao defender um conceito chamado Curva do Sino, afirmava que “judeus e asiáticos orientais” tinham maior probabilidade de ter QI mais alto do que “negros e hispânicos”.

O Dr. Lee, que está listado como autor do artigo, disse em uma entrevista no ano passado que, quando os pesquisadores estavam procurando definir a AGI, “nós a pegamos da Wikipedia”. Ele disse que, mais tarde, quando souberam da conexão com a Curva do Sino, “ficamos realmente envergonhados com isso e fizemos a alteração imediatamente”.

Eric Horvitz, cientista-chefe da Microsoft, que foi um dos principais colaboradores do artigo, escreveu em um e-mail que ele pessoalmente assumiu a responsabilidade pela inserção da referência, dizendo que tinha visto a referência em um artigo de um cofundador do laboratório DeepMind AI do Google e não tinha notado as referências racistas. Quando souberam disso, por meio de uma postagem no X, “ficamos horrorizados, pois estávamos simplesmente procurando uma definição razoavelmente ampla de inteligência dos psicólogos”, disse ele.

Peter Lee é diretor de pesquisas da Microsoft  Foto: Meron Tekie Menghistab/The New York Times

Isso é AGI ou não?

Quando os pesquisadores da Microsoft inicialmente escreveram o artigo, eles o chamaram de “Primeiro contato com um sistema AGI”. Mas alguns membros da equipe, incluindo o Dr. Horvitz, discordaram da caracterização.

Mais tarde, ele disse ao The New York Times que eles não estavam vendo algo que ele “chamaria de ‘inteligência geral artificial’, mas sim vislumbres por meio de sondas e, às vezes, resultados surpreendentemente poderosos”.

O GPT-4 está longe de fazer tudo o que o cérebro humano pode fazer.

Em uma mensagem enviada aos funcionários da OpenAI na tarde de sexta-feira, 1º., que foi vista pelo The Times, o diretor de estratégia da OpenAI, Jason Kwon, disse explicitamente que o GPT-4 não era AGI.

“Ela é capaz de resolver pequenas tarefas em muitos trabalhos, mas a proporção entre o trabalho realizado por um ser humano e o trabalho realizado pela GPT-4 na economia continua incrivelmente alta”, escreveu ele. “É importante ressaltar que uma AGI será um sistema altamente autônomo capaz de criar soluções inovadoras para desafios de longa data - o GPT-4 não pode fazer isso.”

Ainda assim, o artigo alimentou as alegações de alguns pesquisadores e especialistas de que o GPT-4 representava um passo significativo em direção à AGI e que empresas como a Microsoft e a OpenAI continuariam a aprimorar as habilidades de raciocínio da tecnologia.

O campo da IA ainda está amargamente dividido quanto ao grau de inteligência que a tecnologia tem hoje ou terá em breve. Se Musk conseguir o que quer, um júri poderá resolver a questão.

Este conteúdo foi traduzido com o auxílio de ferramentas de Inteligência Artificial e revisado por nossa equipe editorial. Saiba mais em nossa Política de IA.

THE NEW YORK TIMES - Quando Elon Musk processou a OpenAI e seu executivo-chefe, Sam Altman, por quebra de contrato na quinta-feira, 29, ele transformou as alegações do parceiro mais próximo da startup, a Microsoft, em uma arma.

Ele citou repetidamente um artigo polêmico, mas altamente influente, escrito por pesquisadores e altos executivos da Microsoft sobre o poder do GPT-4, o sistema inovador de inteligência artificial que a OpenAI lançou em março do ano passado.

No artigo “Sparks of AGI”, o laboratório de pesquisa da Microsoft afirmou que - embora não entendesse como - o GPT-4 havia mostrado “faíscas” de “inteligência artificial geral” (ou AGI, na sigla em inglês) uma máquina capaz de fazer tudo o que o cérebro humano pode fazer.

Na início do ano passado, o laboratório de pesquisa da Microsoft se tornou a primeira empresa a dizer que o GPT-4 mostrou "lampejos" de "inteligência geral artificial"  Foto: Grant Hindsley/The New York Times

Foi uma afirmação ousada e ocorreu no momento em que as maiores empresas de tecnologia do mundo estavam correndo para introduzir a IA em seus próprios produtos.

Musk está usando o artigo contra a OpenAI, dizendo que ele mostra como a startup voltou atrás em seus compromissos de não comercializar produtos realmente poderosos. A Microsoft e a OpenAI não quiseram comentar o processo. Musk também não respondeu a um pedido de comentário.

Como surgiu o trabalho de pesquisa?

Uma equipe de pesquisadores da Microsoft, liderada por Sébastien Bubeck, um expatriado francês de 38 anos e ex-professor de Princeton, começou a testar uma versão inicial do GPT-4 no segundo semestre de 2022, meses antes de a tecnologia ser lançada ao público. A Microsoft comprometeu-se a investir US$ 13 bilhões na OpenAI e negociou acesso exclusivo às tecnologias subjacentes que alimentam seus sistemas de IA.

Ao conversar com o sistema, eles ficaram impressionados. Ele escreveu uma prova matemática complexa na forma de um poema, gerou um código de computador capaz de desenhar um unicórnio e explicou a melhor maneira de empilhar uma coleção aleatória e eclética de itens domésticos. Bubeck e seus colegas pesquisadores começaram a se perguntar se estavam testemunhando uma nova forma de inteligência.

“Comecei sendo muito cético - e isso evoluiu para um sentimento de frustração, aborrecimento, talvez até medo”, disse Peter Lee, chefe de pesquisa da Microsoft. “Você pensa: de onde diabos isso está vindo?”

Qual é o papel do artigo no processo do Musk?

Musk argumentou que a OpenAI havia violado seu contrato porque havia concordado em não comercializar nenhum produto que sua diretoria tivesse considerado AGI.

“O GPT-4 é um algoritmo de AGI”, escreveram os advogados de Musk. Segundo eles, isso significa que o sistema nunca deveria ter sido licenciado para a Microsoft.

A reclamação de Musk citou repetidamente o artigo de Sparks para argumentar que o GPT-4 era AGI. Seus advogados disseram que “os próprios cientistas da Microsoft reconhecem que o GPT-4 ‘atinge uma forma de inteligência geral’” e, dada “a amplitude e a profundidade dos recursos do GPT-4, acreditamos que ele poderia ser razoavelmente visto como uma versão inicial (ainda incompleta) de um sistema de inteligência geral artificial”.

Sébastien Bubeck liderou uma equipe de pesquisadores da Microsoft para testar uma versão inicial do GPT-4 no outono de 2022, meses antes de a tecnologia ser lançada ao público  Foto: Meron Tekie Menghistab/The New York Times

Como ele foi recebido?

O artigo teve enorme influência desde que foi publicado, uma semana após o lançamento do GPT-4.

Thomas Wolf, cofundador da Hugging Face, uma startup de IA de alto nível, escreveu no X no dia seguinte que o estudo “tinha exemplos completamente alucinantes” do GPT-4.

Desde então, a pesquisa da Microsoft foi citada por mais de 1,5 mil outros artigos, de acordo com o Google Scholar, sendo um dos artigos mais citados sobre IA nos últimos cinco anos, de acordo com o Semantic Scholar.

Ele também foi criticado por especialistas, inclusive alguns dentro da Microsoft, que estavam preocupados com a falta de rigor do artigo de 155 páginas que apoiava a alegação e alimentava um frenesi de marketing da IA.

O artigo não foi revisado por pares e seus resultados não podem ser reproduzidos, pois foi realizado em versões anteriores do GPT-4, que eram guardadas a sete chaves na Microsoft e na OpenAI. Como os autores observaram no artigo, eles não usaram a versão do GPT-4 que foi posteriormente liberada para o público, portanto, qualquer outra pessoa que replicasse os experimentos obteria resultados diferentes.

Alguns especialistas externos disseram que não estava claro se o GPT-4 e sistemas semelhantes apresentavam comportamento parecido ao raciocínio humano ou ao bom senso.

“Quando vemos um sistema ou uma máquina complicada, nós a antropomorfizamos; todo mundo faz isso - pessoas que trabalham na área e pessoas que não trabalham”, disse Alison Gopnik, professora da Universidade da Califórnia, em Berkeley. “Mas pensar nisso como uma comparação constante entre a I.A. e os seres humanos - como uma espécie de competição de game show - não é a maneira correta de pensar sobre isso.”

Houve outras reclamações?

Na introdução do artigo, os autores inicialmente definiram “inteligência” citando um artigo de opinião do jornal americano Wall Street Journal de 30 anos que, ao defender um conceito chamado Curva do Sino, afirmava que “judeus e asiáticos orientais” tinham maior probabilidade de ter QI mais alto do que “negros e hispânicos”.

O Dr. Lee, que está listado como autor do artigo, disse em uma entrevista no ano passado que, quando os pesquisadores estavam procurando definir a AGI, “nós a pegamos da Wikipedia”. Ele disse que, mais tarde, quando souberam da conexão com a Curva do Sino, “ficamos realmente envergonhados com isso e fizemos a alteração imediatamente”.

Eric Horvitz, cientista-chefe da Microsoft, que foi um dos principais colaboradores do artigo, escreveu em um e-mail que ele pessoalmente assumiu a responsabilidade pela inserção da referência, dizendo que tinha visto a referência em um artigo de um cofundador do laboratório DeepMind AI do Google e não tinha notado as referências racistas. Quando souberam disso, por meio de uma postagem no X, “ficamos horrorizados, pois estávamos simplesmente procurando uma definição razoavelmente ampla de inteligência dos psicólogos”, disse ele.

Peter Lee é diretor de pesquisas da Microsoft  Foto: Meron Tekie Menghistab/The New York Times

Isso é AGI ou não?

Quando os pesquisadores da Microsoft inicialmente escreveram o artigo, eles o chamaram de “Primeiro contato com um sistema AGI”. Mas alguns membros da equipe, incluindo o Dr. Horvitz, discordaram da caracterização.

Mais tarde, ele disse ao The New York Times que eles não estavam vendo algo que ele “chamaria de ‘inteligência geral artificial’, mas sim vislumbres por meio de sondas e, às vezes, resultados surpreendentemente poderosos”.

O GPT-4 está longe de fazer tudo o que o cérebro humano pode fazer.

Em uma mensagem enviada aos funcionários da OpenAI na tarde de sexta-feira, 1º., que foi vista pelo The Times, o diretor de estratégia da OpenAI, Jason Kwon, disse explicitamente que o GPT-4 não era AGI.

“Ela é capaz de resolver pequenas tarefas em muitos trabalhos, mas a proporção entre o trabalho realizado por um ser humano e o trabalho realizado pela GPT-4 na economia continua incrivelmente alta”, escreveu ele. “É importante ressaltar que uma AGI será um sistema altamente autônomo capaz de criar soluções inovadoras para desafios de longa data - o GPT-4 não pode fazer isso.”

Ainda assim, o artigo alimentou as alegações de alguns pesquisadores e especialistas de que o GPT-4 representava um passo significativo em direção à AGI e que empresas como a Microsoft e a OpenAI continuariam a aprimorar as habilidades de raciocínio da tecnologia.

O campo da IA ainda está amargamente dividido quanto ao grau de inteligência que a tecnologia tem hoje ou terá em breve. Se Musk conseguir o que quer, um júri poderá resolver a questão.

Este conteúdo foi traduzido com o auxílio de ferramentas de Inteligência Artificial e revisado por nossa equipe editorial. Saiba mais em nossa Política de IA.

Atualizamos nossa política de cookies

Ao utilizar nossos serviços, você aceita a política de monitoramento de cookies.