IA ‘poderosa’ e ‘que ameaça a humanidade’ teria motivado a expulsão de Sam Altman da OpenAI; entenda


Modelo chamado de Q* foi descrito por carta ao conselho da startup

Por Redação
Atualização:

A descoberta de uma inteligência artificial (IA) “poderosa” na semana passada teria motivado a expulsão de Sam Altman da chefia da OpenAI, segundo informações publicadas pela agência de notícias Reuters na noite de quarta-feira, 22. Essa IA superinteligente poderia ameaçar a humanidade, segundo pessoas conversaram com a agência de notícias em condição de anonimato.

Chamado de Q* (Q-Star, em inglês, ou Q-Estrela, em tradução livre), esse sistema é considerado um marco interno dentro da startup americana. Há anos, a OpenAI afirma abertamente que busca desenvolver a chamada “inteligência artificial geral” (AGI, na sigla em inglês), que seria capaz de realizar as mesmas tarefas que um cérebro humano.

A Reuters afirma que o novo modelo de inteligência utiliza recursos “vastos” de computação e foi capaz de solucionar certos problemas matemáticos, ainda que de nível escolar. Para os pesquisadores da OpenAI, porém, os resultados foram otimistas sobre o futuro do Q*.

continua após a publicidade

Os pesquisadores da OpenAI, então, teriam enviado uma carta para o conselho da empresa, narrando o avanço. O conteúdo do texto não foi revelado, mas a Reuters afirma que o material foi responsável por aumentar a lista de discordâncias entre os diretores da organização e Sam Altman.

Na sexta-feira passada, 17, em anúncio que espantou o mundo da tecnologia, o fundador e presidente executivo da OpenAI, Sam Altman, foi expulso da empresa, sem aviso prévio ao mercado nem motivos esclarecidos. Após episódios turbulentos nos dias seguintes, ele foi readmitido ao posto na terça-feira à noite, 21, com a expectativa de reinstalar um novo conselho na startup.

Altman sempre foi vocal sobre o desejo de desenvolver uma AGI responsável e ética, afirmando diversas vezes em entrevistas e conferências que esse é o objetivo final da OpenAI. Bastidores revelados pela imprensa americana apontaram que, entre as divergências entre o conselho e o CEO da OpenAI, estariam o medo de um avanço irresponsável da IA.

A descoberta de uma inteligência artificial (IA) “poderosa” na semana passada teria motivado a expulsão de Sam Altman da chefia da OpenAI, segundo informações publicadas pela agência de notícias Reuters na noite de quarta-feira, 22. Essa IA superinteligente poderia ameaçar a humanidade, segundo pessoas conversaram com a agência de notícias em condição de anonimato.

Chamado de Q* (Q-Star, em inglês, ou Q-Estrela, em tradução livre), esse sistema é considerado um marco interno dentro da startup americana. Há anos, a OpenAI afirma abertamente que busca desenvolver a chamada “inteligência artificial geral” (AGI, na sigla em inglês), que seria capaz de realizar as mesmas tarefas que um cérebro humano.

A Reuters afirma que o novo modelo de inteligência utiliza recursos “vastos” de computação e foi capaz de solucionar certos problemas matemáticos, ainda que de nível escolar. Para os pesquisadores da OpenAI, porém, os resultados foram otimistas sobre o futuro do Q*.

Os pesquisadores da OpenAI, então, teriam enviado uma carta para o conselho da empresa, narrando o avanço. O conteúdo do texto não foi revelado, mas a Reuters afirma que o material foi responsável por aumentar a lista de discordâncias entre os diretores da organização e Sam Altman.

Na sexta-feira passada, 17, em anúncio que espantou o mundo da tecnologia, o fundador e presidente executivo da OpenAI, Sam Altman, foi expulso da empresa, sem aviso prévio ao mercado nem motivos esclarecidos. Após episódios turbulentos nos dias seguintes, ele foi readmitido ao posto na terça-feira à noite, 21, com a expectativa de reinstalar um novo conselho na startup.

Altman sempre foi vocal sobre o desejo de desenvolver uma AGI responsável e ética, afirmando diversas vezes em entrevistas e conferências que esse é o objetivo final da OpenAI. Bastidores revelados pela imprensa americana apontaram que, entre as divergências entre o conselho e o CEO da OpenAI, estariam o medo de um avanço irresponsável da IA.

A descoberta de uma inteligência artificial (IA) “poderosa” na semana passada teria motivado a expulsão de Sam Altman da chefia da OpenAI, segundo informações publicadas pela agência de notícias Reuters na noite de quarta-feira, 22. Essa IA superinteligente poderia ameaçar a humanidade, segundo pessoas conversaram com a agência de notícias em condição de anonimato.

Chamado de Q* (Q-Star, em inglês, ou Q-Estrela, em tradução livre), esse sistema é considerado um marco interno dentro da startup americana. Há anos, a OpenAI afirma abertamente que busca desenvolver a chamada “inteligência artificial geral” (AGI, na sigla em inglês), que seria capaz de realizar as mesmas tarefas que um cérebro humano.

A Reuters afirma que o novo modelo de inteligência utiliza recursos “vastos” de computação e foi capaz de solucionar certos problemas matemáticos, ainda que de nível escolar. Para os pesquisadores da OpenAI, porém, os resultados foram otimistas sobre o futuro do Q*.

Os pesquisadores da OpenAI, então, teriam enviado uma carta para o conselho da empresa, narrando o avanço. O conteúdo do texto não foi revelado, mas a Reuters afirma que o material foi responsável por aumentar a lista de discordâncias entre os diretores da organização e Sam Altman.

Na sexta-feira passada, 17, em anúncio que espantou o mundo da tecnologia, o fundador e presidente executivo da OpenAI, Sam Altman, foi expulso da empresa, sem aviso prévio ao mercado nem motivos esclarecidos. Após episódios turbulentos nos dias seguintes, ele foi readmitido ao posto na terça-feira à noite, 21, com a expectativa de reinstalar um novo conselho na startup.

Altman sempre foi vocal sobre o desejo de desenvolver uma AGI responsável e ética, afirmando diversas vezes em entrevistas e conferências que esse é o objetivo final da OpenAI. Bastidores revelados pela imprensa americana apontaram que, entre as divergências entre o conselho e o CEO da OpenAI, estariam o medo de um avanço irresponsável da IA.

Atualizamos nossa política de cookies

Ao utilizar nossos serviços, você aceita a política de monitoramento de cookies.