As máquinas vão dominar o mundo? Conheça o plano da OpenAI para conter IAs superpoderosas


Dona do ChatGPT está à procura de pessoas dispostas a resolver o problema do ‘alinhamento’

Por Guilherme Guerra

A OpenAI, criadora do ChatGPT, é bem clara: em 10 anos, o mundo vai ter uma superinteligência artificial capaz de realizar as mesmas tarefas que um cérebro humano. E, para controlar isso, a startup americana quer encontrar maneiras de conter essas máquinas.

Na quinta-feira 14, a OpenAI anunciou um programa de suporte à pesquisa em “superalinhamento”, termo dado a técnicas de controle e segurança de inteligências artificiais por humanos. Uma bolsa de US$ 100 mil a US$ 2 milhões vai ser dada a pesquisadores, laboratórios, organizações sem fins lucrativos e estudantes para desenvolverem soluções nesse campo.

A startup afirma que são bem-vindas inscrições de pessoas que nunca pesquisaram nessa área: “Estamos ativamente procurando apoiar pesquisadores que estão animados em trabalhar com alinhamento pela primeira vez”, escreveu a OpenAI no edital. Para a empresa, esse campo é necessário para acompanhar o desenvolvimento das inteligências artificiais gerais (AGI, na sigla em inglês). Alinhamento é o nome dado ao campo da IA que tenta encontrar soluções para que sistemas computacionais de capacidade humana atendam e respeitem os interesses, evitando uma suposta dominação da Humanidade por máquinas.

continua após a publicidade

“Os sistemas de IA sobre-humanos serão capazes de comportamentos complexos e criativos que os seres humanos não conseguem entender completamente. Por exemplo, se um modelo sobre-humano gerar um milhão de linhas de código extremamente complicado, os seres humanos não conseguirão avaliar de forma confiável se a execução do código é segura ou perigosa“, diz a startup, ressaltando que as técnicas atuais de alinhamento não são suficientes para esse tipo de tecnologia no futuro. “Esse é um dos problemas técnicos não resolvidos mais importantes do mundo.”

Esse edital é apoiado por Ilya Sutskever, cientista-chefe da OpenAI e um dos primeiros membros da companhia. Até novembro passado, ele estava no conselho da empresa e é atribuída a ele a demissão do presidente-executivo Sam Altman, readmitido cinco dias depois.

continua após a publicidade

Sutskever é conhecido por ser abertamente temerário de uma AGI, tecnologia que, em sua visão, poderia destruir a Humanidade. Neste mês de dezembro, o cientista-chefe da OpenAI foi eleito uma das personalidades do ano pela revista científica Nature, que também colocou o ChatGPT na lista anual.

Q*: a superIA em desenvolvimento da OpenAI

O programa de superalinhamento nasce após a suposta descoberta da superinteligência artificial Q*. Relatos da imprensa americana, de 24 de novembro, afirmam que esse sistema teria envolvimento com a expulsão de Altman, que teria ignorado os perigos potenciais da tecnologia — a história não foi confirmada pela empresa e Altman negou a existência do sistema.

continua após a publicidade

Chamado de Q* (Q-Star, em inglês, ou Q-Estrela, em tradução livre), esse sistema superinteligente seria considerado um marco interno dentro da startup americana. Há anos, a OpenAI afirma abertamente que busca desenvolver a chamada “inteligência artificial geral” (AGI, na sigla em inglês), que seria capaz de realizar as mesmas tarefas que um cérebro humano.

O marco acontece porque o Q* seria capaz de solucionar equações matemáticas de nível escolar, usando a tecnologia de modelos amplos de linguagem (LLM, na sigla em inglês) — mesma utilizada no ChatGPT e que permite fluidez na escrita. Até aqui, esses sistemas não são capazes de resolver problemas de lógica, pois não foram desenvolvidos para isso.

continua após a publicidade

Especialistas ouvidos pelo Estadão, no entanto, afirmam que a tecnologia ainda está longe de ser a AGI distópica vista em filmes e livros de ficção-científica.

A OpenAI, criadora do ChatGPT, é bem clara: em 10 anos, o mundo vai ter uma superinteligência artificial capaz de realizar as mesmas tarefas que um cérebro humano. E, para controlar isso, a startup americana quer encontrar maneiras de conter essas máquinas.

Na quinta-feira 14, a OpenAI anunciou um programa de suporte à pesquisa em “superalinhamento”, termo dado a técnicas de controle e segurança de inteligências artificiais por humanos. Uma bolsa de US$ 100 mil a US$ 2 milhões vai ser dada a pesquisadores, laboratórios, organizações sem fins lucrativos e estudantes para desenvolverem soluções nesse campo.

A startup afirma que são bem-vindas inscrições de pessoas que nunca pesquisaram nessa área: “Estamos ativamente procurando apoiar pesquisadores que estão animados em trabalhar com alinhamento pela primeira vez”, escreveu a OpenAI no edital. Para a empresa, esse campo é necessário para acompanhar o desenvolvimento das inteligências artificiais gerais (AGI, na sigla em inglês). Alinhamento é o nome dado ao campo da IA que tenta encontrar soluções para que sistemas computacionais de capacidade humana atendam e respeitem os interesses, evitando uma suposta dominação da Humanidade por máquinas.

“Os sistemas de IA sobre-humanos serão capazes de comportamentos complexos e criativos que os seres humanos não conseguem entender completamente. Por exemplo, se um modelo sobre-humano gerar um milhão de linhas de código extremamente complicado, os seres humanos não conseguirão avaliar de forma confiável se a execução do código é segura ou perigosa“, diz a startup, ressaltando que as técnicas atuais de alinhamento não são suficientes para esse tipo de tecnologia no futuro. “Esse é um dos problemas técnicos não resolvidos mais importantes do mundo.”

Esse edital é apoiado por Ilya Sutskever, cientista-chefe da OpenAI e um dos primeiros membros da companhia. Até novembro passado, ele estava no conselho da empresa e é atribuída a ele a demissão do presidente-executivo Sam Altman, readmitido cinco dias depois.

Sutskever é conhecido por ser abertamente temerário de uma AGI, tecnologia que, em sua visão, poderia destruir a Humanidade. Neste mês de dezembro, o cientista-chefe da OpenAI foi eleito uma das personalidades do ano pela revista científica Nature, que também colocou o ChatGPT na lista anual.

Q*: a superIA em desenvolvimento da OpenAI

O programa de superalinhamento nasce após a suposta descoberta da superinteligência artificial Q*. Relatos da imprensa americana, de 24 de novembro, afirmam que esse sistema teria envolvimento com a expulsão de Altman, que teria ignorado os perigos potenciais da tecnologia — a história não foi confirmada pela empresa e Altman negou a existência do sistema.

Chamado de Q* (Q-Star, em inglês, ou Q-Estrela, em tradução livre), esse sistema superinteligente seria considerado um marco interno dentro da startup americana. Há anos, a OpenAI afirma abertamente que busca desenvolver a chamada “inteligência artificial geral” (AGI, na sigla em inglês), que seria capaz de realizar as mesmas tarefas que um cérebro humano.

O marco acontece porque o Q* seria capaz de solucionar equações matemáticas de nível escolar, usando a tecnologia de modelos amplos de linguagem (LLM, na sigla em inglês) — mesma utilizada no ChatGPT e que permite fluidez na escrita. Até aqui, esses sistemas não são capazes de resolver problemas de lógica, pois não foram desenvolvidos para isso.

Especialistas ouvidos pelo Estadão, no entanto, afirmam que a tecnologia ainda está longe de ser a AGI distópica vista em filmes e livros de ficção-científica.

A OpenAI, criadora do ChatGPT, é bem clara: em 10 anos, o mundo vai ter uma superinteligência artificial capaz de realizar as mesmas tarefas que um cérebro humano. E, para controlar isso, a startup americana quer encontrar maneiras de conter essas máquinas.

Na quinta-feira 14, a OpenAI anunciou um programa de suporte à pesquisa em “superalinhamento”, termo dado a técnicas de controle e segurança de inteligências artificiais por humanos. Uma bolsa de US$ 100 mil a US$ 2 milhões vai ser dada a pesquisadores, laboratórios, organizações sem fins lucrativos e estudantes para desenvolverem soluções nesse campo.

A startup afirma que são bem-vindas inscrições de pessoas que nunca pesquisaram nessa área: “Estamos ativamente procurando apoiar pesquisadores que estão animados em trabalhar com alinhamento pela primeira vez”, escreveu a OpenAI no edital. Para a empresa, esse campo é necessário para acompanhar o desenvolvimento das inteligências artificiais gerais (AGI, na sigla em inglês). Alinhamento é o nome dado ao campo da IA que tenta encontrar soluções para que sistemas computacionais de capacidade humana atendam e respeitem os interesses, evitando uma suposta dominação da Humanidade por máquinas.

“Os sistemas de IA sobre-humanos serão capazes de comportamentos complexos e criativos que os seres humanos não conseguem entender completamente. Por exemplo, se um modelo sobre-humano gerar um milhão de linhas de código extremamente complicado, os seres humanos não conseguirão avaliar de forma confiável se a execução do código é segura ou perigosa“, diz a startup, ressaltando que as técnicas atuais de alinhamento não são suficientes para esse tipo de tecnologia no futuro. “Esse é um dos problemas técnicos não resolvidos mais importantes do mundo.”

Esse edital é apoiado por Ilya Sutskever, cientista-chefe da OpenAI e um dos primeiros membros da companhia. Até novembro passado, ele estava no conselho da empresa e é atribuída a ele a demissão do presidente-executivo Sam Altman, readmitido cinco dias depois.

Sutskever é conhecido por ser abertamente temerário de uma AGI, tecnologia que, em sua visão, poderia destruir a Humanidade. Neste mês de dezembro, o cientista-chefe da OpenAI foi eleito uma das personalidades do ano pela revista científica Nature, que também colocou o ChatGPT na lista anual.

Q*: a superIA em desenvolvimento da OpenAI

O programa de superalinhamento nasce após a suposta descoberta da superinteligência artificial Q*. Relatos da imprensa americana, de 24 de novembro, afirmam que esse sistema teria envolvimento com a expulsão de Altman, que teria ignorado os perigos potenciais da tecnologia — a história não foi confirmada pela empresa e Altman negou a existência do sistema.

Chamado de Q* (Q-Star, em inglês, ou Q-Estrela, em tradução livre), esse sistema superinteligente seria considerado um marco interno dentro da startup americana. Há anos, a OpenAI afirma abertamente que busca desenvolver a chamada “inteligência artificial geral” (AGI, na sigla em inglês), que seria capaz de realizar as mesmas tarefas que um cérebro humano.

O marco acontece porque o Q* seria capaz de solucionar equações matemáticas de nível escolar, usando a tecnologia de modelos amplos de linguagem (LLM, na sigla em inglês) — mesma utilizada no ChatGPT e que permite fluidez na escrita. Até aqui, esses sistemas não são capazes de resolver problemas de lógica, pois não foram desenvolvidos para isso.

Especialistas ouvidos pelo Estadão, no entanto, afirmam que a tecnologia ainda está longe de ser a AGI distópica vista em filmes e livros de ficção-científica.

A OpenAI, criadora do ChatGPT, é bem clara: em 10 anos, o mundo vai ter uma superinteligência artificial capaz de realizar as mesmas tarefas que um cérebro humano. E, para controlar isso, a startup americana quer encontrar maneiras de conter essas máquinas.

Na quinta-feira 14, a OpenAI anunciou um programa de suporte à pesquisa em “superalinhamento”, termo dado a técnicas de controle e segurança de inteligências artificiais por humanos. Uma bolsa de US$ 100 mil a US$ 2 milhões vai ser dada a pesquisadores, laboratórios, organizações sem fins lucrativos e estudantes para desenvolverem soluções nesse campo.

A startup afirma que são bem-vindas inscrições de pessoas que nunca pesquisaram nessa área: “Estamos ativamente procurando apoiar pesquisadores que estão animados em trabalhar com alinhamento pela primeira vez”, escreveu a OpenAI no edital. Para a empresa, esse campo é necessário para acompanhar o desenvolvimento das inteligências artificiais gerais (AGI, na sigla em inglês). Alinhamento é o nome dado ao campo da IA que tenta encontrar soluções para que sistemas computacionais de capacidade humana atendam e respeitem os interesses, evitando uma suposta dominação da Humanidade por máquinas.

“Os sistemas de IA sobre-humanos serão capazes de comportamentos complexos e criativos que os seres humanos não conseguem entender completamente. Por exemplo, se um modelo sobre-humano gerar um milhão de linhas de código extremamente complicado, os seres humanos não conseguirão avaliar de forma confiável se a execução do código é segura ou perigosa“, diz a startup, ressaltando que as técnicas atuais de alinhamento não são suficientes para esse tipo de tecnologia no futuro. “Esse é um dos problemas técnicos não resolvidos mais importantes do mundo.”

Esse edital é apoiado por Ilya Sutskever, cientista-chefe da OpenAI e um dos primeiros membros da companhia. Até novembro passado, ele estava no conselho da empresa e é atribuída a ele a demissão do presidente-executivo Sam Altman, readmitido cinco dias depois.

Sutskever é conhecido por ser abertamente temerário de uma AGI, tecnologia que, em sua visão, poderia destruir a Humanidade. Neste mês de dezembro, o cientista-chefe da OpenAI foi eleito uma das personalidades do ano pela revista científica Nature, que também colocou o ChatGPT na lista anual.

Q*: a superIA em desenvolvimento da OpenAI

O programa de superalinhamento nasce após a suposta descoberta da superinteligência artificial Q*. Relatos da imprensa americana, de 24 de novembro, afirmam que esse sistema teria envolvimento com a expulsão de Altman, que teria ignorado os perigos potenciais da tecnologia — a história não foi confirmada pela empresa e Altman negou a existência do sistema.

Chamado de Q* (Q-Star, em inglês, ou Q-Estrela, em tradução livre), esse sistema superinteligente seria considerado um marco interno dentro da startup americana. Há anos, a OpenAI afirma abertamente que busca desenvolver a chamada “inteligência artificial geral” (AGI, na sigla em inglês), que seria capaz de realizar as mesmas tarefas que um cérebro humano.

O marco acontece porque o Q* seria capaz de solucionar equações matemáticas de nível escolar, usando a tecnologia de modelos amplos de linguagem (LLM, na sigla em inglês) — mesma utilizada no ChatGPT e que permite fluidez na escrita. Até aqui, esses sistemas não são capazes de resolver problemas de lógica, pois não foram desenvolvidos para isso.

Especialistas ouvidos pelo Estadão, no entanto, afirmam que a tecnologia ainda está longe de ser a AGI distópica vista em filmes e livros de ficção-científica.

Atualizamos nossa política de cookies

Ao utilizar nossos serviços, você aceita a política de monitoramento de cookies.