Como universidades americanas ficaram obcecadas pelo apocalipse da inteligência artificial


Nova geração de pesquisadores comparam a IA ao ‘Projeto Manhattan’, da bomba atômica

Por Nitasha Tiku

THE WASHINGTON POST - Paul Edwards, pesquisador da Universidade Stanford que passou décadas estudando guerras nucleares e mudanças climáticas, se considera “um cara do apocalipse”. Por isso, ajudou a desenvolver uma aula para calouros sobre a prevenção da extinção humana. Trabalhando com o epidemiologista Steve Luby, professor de medicina e doenças infecciosas, a dupla se concentrou em três ameaças conhecidas à espécie — pandemias globais, mudanças climáticas extremas e guerra nuclear. Agora, ele mira a suposta quarta ameaça mais recente: inteligência artificial (IA) avançada.

Nessa última frente, Edwards achava que os jovens estariam preocupados com as ameaças imediatas, como a vigilância por IA, a desinformação ou as armas autônomas que atingem e matam sem intervenção humana. Mas ele logo descobriu que alguns alunos estavam mais concentrados em um risco puramente hipotético: a possibilidade de a IA se tornar tão inteligente quanto os humanos e destruir a humanidade.

A ficção científica há muito tempo contempla a IA rebelde, do HAL 9000, do filme “Uma Odisseia no Espaço” à Skynet, do “Exterminador do Futuro”. Mas, nos últimos anos, o Vale do Silício se encantou com uma visão distinta de como a superinteligência pode dar errado, derivada de experimentos mentais à margem da cultura tecnológica. Nesses cenários, a IA não é necessariamente consciente. Em vez disso, ela se fixa em um objetivo - mesmo que seja um objetivo mundano, como fazer clipes de papel - e desencadeia a extinção humana para otimizar sua tarefa.

continua após a publicidade

Para evitar esse resultado teórico, mas cataclísmico, laboratórios orientados por supostas missões “benevolentes”, como DeepMind, OpenAI e Anthropic, estão correndo para criar um tipo de IA programada para não mentir, enganar ou nos matar. Enquanto isso, doadores como Elon Musk, CEO da Tesla, e Sam Bankman-Fried, fundador da FTX, trabalham para tirar os pessimistas do setor das margens e levá-los para o mainstream.

Mais recentemente, filantropos ricos do setor de tecnologia começaram a recrutar um exército de estudantes universitários de elite para priorizar a luta contra a IA desonesta em detrimento de outras ameaças - uma das principais críticas à visão distópica da IA é que ela ignora problemas reais, como viés racial e vigilância permanente.

A ONG Open Philanthropy, por exemplo, canalizou quase meio bilhão de dólares para desenvolver um canal de talentos para combater a IA rebelde, construindo um conjunto de canais do YouTube, competições de prêmios, subsídios, financiamento de pesquisa e bolsas de estudo.

continua após a publicidade

Recrutamento

As faculdades têm sido fundamentais para essa estratégia de crescimento, servindo tanto como um caminho para o prestígio quanto como um campo de recrutamento de talentos idealistas. No último ano e meio, grupos de segurança de IA surgiram em cerca de 20 campi nos Estados Unidos e na Europa (incluindo Harvard, Georgia Tech, MIT, Columbia e New York University), muitos liderados por estudantes financiados pela nova bolsa universitária da Open Philanthropy.

Em Stanford, a Open Philanthropy concedeu a Luby e a Edwards mais de US$ 1,5 milhão em subsídios para lançar a Stanford Existential Risk Initiative (Iniciativa de Risco Existencial de Stanford), que apoia a pesquisa de estudantes no campo crescente conhecido como “segurança de IA” ou “alinhamento de IA”.

continua após a publicidade

Essas iniciativas treinam os alunos em aprendizado de máquina e os ajudam a encontrar empregos em startups de IA ou em um dos muitos grupos sem fins lucrativos dedicados à segurança da IA. Muitos desses líderes estudantis recém-formados veem a IA rebelde como uma ameaça urgente e negligenciada, potencialmente rivalizando com a mudança climática em sua capacidade de acabar com a vida humana — eles veem a IA avançada como o Projeto Manhattan, que criou a bomba atômica, de sua geração.

ChatGPT foi lançado em novembro passado pela OpenAI, empresa americana de inteligência artificial Foto: Dado Ruvic/Reuters

Entre eles está Gabriel Mukobi, 23, que se formou em Stanford em junho e está fazendo a transição para um programa de mestrado em ciência da computação. Mukobi ajudou a organizar um grupo de segurança de IA no campus no verão passado e sonha em tornar Stanford um centro de trabalho de segurança de IA. Apesar dos laços da escola com o Vale do Silício, Mukobi disse que ela fica atrás da vizinha UC Berkeley, onde membros mais jovens do corpo docente pesquisam alinhamento de IA, o termo para incorporar a ética humana aos sistemas de inteligência.

continua após a publicidade

“Isso parece ser algo muito, muito importante”, disse Mukobi, “e eu quero fazer isso acontecer”.

Quando Mukobi ouviu pela primeira vez a teoria de que a IA poderia erradicar a humanidade, ele achou difícil de acreditar. Na época, Mukobi estava no segundo ano do ensino médio em um ano sabático durante a pandemia.

Entretanto, no verão passado, ele crou o grupo de Alinhamento de IA de Stanford (SAIA) em uma publicação de blog com o diagrama de uma árvore representando seu plano. Para se proteger contra os “riscos à reputação” de trabalhar em um campo que alguns consideram duvidoso, Mukobi escreveu: “Priorizaremos os alunos e evitaremos o alcance direcionado a professores de IA não alinhados”.

continua após a publicidade

Movimentos como o de Mukobi influenciaram com sucesso a cultura de IA por meio de estruturas sociais construídas em torno da troca de ideias, disse Shazeda Ahmed, pesquisador associado de pós-doutorado do Center for Information Technology Policy da Universidade de Princeton.

Os líderes estudantis têm acesso a uma grande quantidade de recursos de organizações patrocinadas por doadores, incluindo um currículo de “Fundamentos de Segurança de IA” desenvolvido por um funcionário da OpenAI.

Mundo novo

continua após a publicidade

Desde o lançamento do ChatGPT, em novembro, a discussão sobre a segurança da IA explodiu em um ritmo vertiginoso. Os laboratórios corporativos que veem a inteligência artificial avançada como inevitável e querem que os benefícios sociais superem os riscos estão cada vez mais promovendo a segurança da IA como o antídoto para os piores resultados temidos.

Todo mundo está começando a perceber algumas das consequências da IA avançada

Gabriel Mukobi, 23, formado em Stanford

Em Stanford, Mukobi tentou capitalizar o interesse repentino.

Depois que Yoshua Bengio, um dos “padrinhos” do deep learning, assinou uma carta aberta em março pedindo que o setor de IA fizesse uma pausa, Mukobi enviou outro e-mail para as listas de discussão dos alunos de Stanford alertando que a segurança da IA estava sendo eclipsada pelos rápidos avanços no campo.

“Todo mundo está começando a perceber algumas das consequências”, escreveu ele, vinculando cada palavra a um recente artigo de opinião, tuíte, publicação do Substack, artigo ou vídeo do YouTube alertando sobre os perigos da “IA desalinhada”.

Pioneiro da inteligência artificial, Geoffrey Hinton deixou o Google em maio passado Foto: Mark Blinch/Reuters

A essa altura, a SAIA já havia iniciado seu segundo conjunto de discussões estudantis sobre alinhamento introdutório e intermediário de IA, que 100 alunos concluíram até o momento. “Não se obtém segurança por padrão, é preciso incorporá-la - e ninguém sabe como fazer isso ainda”, escreveu ele.

Mukobi se sente animado com o crescente consenso de que vale a pena explorar esses riscos. Ele ouviu os alunos falarem sobre a segurança da IA nos corredores do Gates, o prédio de ciência da computação, em maio, depois que Geoffrey Hinton, outro “padrinho” da IA, saiu do Google para alertar sobre a IA. Até o final do ano, Mukobi acredita que o assunto poderá ser um tema de mesa de jantar, assim como as mudanças climáticas ou a guerra na Ucrânia.

O interesse pelo tema também está crescendo entre os membros do corpo docente de Stanford, disse o professor Edwards. Ele observou que um novo pós-doutorando conduzirá uma aula sobre alinhamento no próximo semestre no famoso departamento de ciência da computação da instituição. O curso não será ministrado por alunos ou especialistas externos. Em vez disso, disse ele, “será uma aula normal de Stanford”.

Luby, parceiro de Edwards na aula sobre extinção humana, também parece achar esses argumentos persuasivos. Ele já havia reorganizado a ordem de seus planos de aula sobre IA para ajudar os alunos a perceber os riscos iminentes da IA. Edwards, por outro lado, ainda vê coisas como a mudança climática como uma ameaça maior do que a IA desonesta. Mas o ChatGPT e o rápido lançamento de modelos de IA o convenceram de que deve haver espaço para pensar na segurança da IA. / TRADUÇÃO BRUNA ARIMATHEA

THE WASHINGTON POST - Paul Edwards, pesquisador da Universidade Stanford que passou décadas estudando guerras nucleares e mudanças climáticas, se considera “um cara do apocalipse”. Por isso, ajudou a desenvolver uma aula para calouros sobre a prevenção da extinção humana. Trabalhando com o epidemiologista Steve Luby, professor de medicina e doenças infecciosas, a dupla se concentrou em três ameaças conhecidas à espécie — pandemias globais, mudanças climáticas extremas e guerra nuclear. Agora, ele mira a suposta quarta ameaça mais recente: inteligência artificial (IA) avançada.

Nessa última frente, Edwards achava que os jovens estariam preocupados com as ameaças imediatas, como a vigilância por IA, a desinformação ou as armas autônomas que atingem e matam sem intervenção humana. Mas ele logo descobriu que alguns alunos estavam mais concentrados em um risco puramente hipotético: a possibilidade de a IA se tornar tão inteligente quanto os humanos e destruir a humanidade.

A ficção científica há muito tempo contempla a IA rebelde, do HAL 9000, do filme “Uma Odisseia no Espaço” à Skynet, do “Exterminador do Futuro”. Mas, nos últimos anos, o Vale do Silício se encantou com uma visão distinta de como a superinteligência pode dar errado, derivada de experimentos mentais à margem da cultura tecnológica. Nesses cenários, a IA não é necessariamente consciente. Em vez disso, ela se fixa em um objetivo - mesmo que seja um objetivo mundano, como fazer clipes de papel - e desencadeia a extinção humana para otimizar sua tarefa.

Para evitar esse resultado teórico, mas cataclísmico, laboratórios orientados por supostas missões “benevolentes”, como DeepMind, OpenAI e Anthropic, estão correndo para criar um tipo de IA programada para não mentir, enganar ou nos matar. Enquanto isso, doadores como Elon Musk, CEO da Tesla, e Sam Bankman-Fried, fundador da FTX, trabalham para tirar os pessimistas do setor das margens e levá-los para o mainstream.

Mais recentemente, filantropos ricos do setor de tecnologia começaram a recrutar um exército de estudantes universitários de elite para priorizar a luta contra a IA desonesta em detrimento de outras ameaças - uma das principais críticas à visão distópica da IA é que ela ignora problemas reais, como viés racial e vigilância permanente.

A ONG Open Philanthropy, por exemplo, canalizou quase meio bilhão de dólares para desenvolver um canal de talentos para combater a IA rebelde, construindo um conjunto de canais do YouTube, competições de prêmios, subsídios, financiamento de pesquisa e bolsas de estudo.

Recrutamento

As faculdades têm sido fundamentais para essa estratégia de crescimento, servindo tanto como um caminho para o prestígio quanto como um campo de recrutamento de talentos idealistas. No último ano e meio, grupos de segurança de IA surgiram em cerca de 20 campi nos Estados Unidos e na Europa (incluindo Harvard, Georgia Tech, MIT, Columbia e New York University), muitos liderados por estudantes financiados pela nova bolsa universitária da Open Philanthropy.

Em Stanford, a Open Philanthropy concedeu a Luby e a Edwards mais de US$ 1,5 milhão em subsídios para lançar a Stanford Existential Risk Initiative (Iniciativa de Risco Existencial de Stanford), que apoia a pesquisa de estudantes no campo crescente conhecido como “segurança de IA” ou “alinhamento de IA”.

Essas iniciativas treinam os alunos em aprendizado de máquina e os ajudam a encontrar empregos em startups de IA ou em um dos muitos grupos sem fins lucrativos dedicados à segurança da IA. Muitos desses líderes estudantis recém-formados veem a IA rebelde como uma ameaça urgente e negligenciada, potencialmente rivalizando com a mudança climática em sua capacidade de acabar com a vida humana — eles veem a IA avançada como o Projeto Manhattan, que criou a bomba atômica, de sua geração.

ChatGPT foi lançado em novembro passado pela OpenAI, empresa americana de inteligência artificial Foto: Dado Ruvic/Reuters

Entre eles está Gabriel Mukobi, 23, que se formou em Stanford em junho e está fazendo a transição para um programa de mestrado em ciência da computação. Mukobi ajudou a organizar um grupo de segurança de IA no campus no verão passado e sonha em tornar Stanford um centro de trabalho de segurança de IA. Apesar dos laços da escola com o Vale do Silício, Mukobi disse que ela fica atrás da vizinha UC Berkeley, onde membros mais jovens do corpo docente pesquisam alinhamento de IA, o termo para incorporar a ética humana aos sistemas de inteligência.

“Isso parece ser algo muito, muito importante”, disse Mukobi, “e eu quero fazer isso acontecer”.

Quando Mukobi ouviu pela primeira vez a teoria de que a IA poderia erradicar a humanidade, ele achou difícil de acreditar. Na época, Mukobi estava no segundo ano do ensino médio em um ano sabático durante a pandemia.

Entretanto, no verão passado, ele crou o grupo de Alinhamento de IA de Stanford (SAIA) em uma publicação de blog com o diagrama de uma árvore representando seu plano. Para se proteger contra os “riscos à reputação” de trabalhar em um campo que alguns consideram duvidoso, Mukobi escreveu: “Priorizaremos os alunos e evitaremos o alcance direcionado a professores de IA não alinhados”.

Movimentos como o de Mukobi influenciaram com sucesso a cultura de IA por meio de estruturas sociais construídas em torno da troca de ideias, disse Shazeda Ahmed, pesquisador associado de pós-doutorado do Center for Information Technology Policy da Universidade de Princeton.

Os líderes estudantis têm acesso a uma grande quantidade de recursos de organizações patrocinadas por doadores, incluindo um currículo de “Fundamentos de Segurança de IA” desenvolvido por um funcionário da OpenAI.

Mundo novo

Desde o lançamento do ChatGPT, em novembro, a discussão sobre a segurança da IA explodiu em um ritmo vertiginoso. Os laboratórios corporativos que veem a inteligência artificial avançada como inevitável e querem que os benefícios sociais superem os riscos estão cada vez mais promovendo a segurança da IA como o antídoto para os piores resultados temidos.

Todo mundo está começando a perceber algumas das consequências da IA avançada

Gabriel Mukobi, 23, formado em Stanford

Em Stanford, Mukobi tentou capitalizar o interesse repentino.

Depois que Yoshua Bengio, um dos “padrinhos” do deep learning, assinou uma carta aberta em março pedindo que o setor de IA fizesse uma pausa, Mukobi enviou outro e-mail para as listas de discussão dos alunos de Stanford alertando que a segurança da IA estava sendo eclipsada pelos rápidos avanços no campo.

“Todo mundo está começando a perceber algumas das consequências”, escreveu ele, vinculando cada palavra a um recente artigo de opinião, tuíte, publicação do Substack, artigo ou vídeo do YouTube alertando sobre os perigos da “IA desalinhada”.

Pioneiro da inteligência artificial, Geoffrey Hinton deixou o Google em maio passado Foto: Mark Blinch/Reuters

A essa altura, a SAIA já havia iniciado seu segundo conjunto de discussões estudantis sobre alinhamento introdutório e intermediário de IA, que 100 alunos concluíram até o momento. “Não se obtém segurança por padrão, é preciso incorporá-la - e ninguém sabe como fazer isso ainda”, escreveu ele.

Mukobi se sente animado com o crescente consenso de que vale a pena explorar esses riscos. Ele ouviu os alunos falarem sobre a segurança da IA nos corredores do Gates, o prédio de ciência da computação, em maio, depois que Geoffrey Hinton, outro “padrinho” da IA, saiu do Google para alertar sobre a IA. Até o final do ano, Mukobi acredita que o assunto poderá ser um tema de mesa de jantar, assim como as mudanças climáticas ou a guerra na Ucrânia.

O interesse pelo tema também está crescendo entre os membros do corpo docente de Stanford, disse o professor Edwards. Ele observou que um novo pós-doutorando conduzirá uma aula sobre alinhamento no próximo semestre no famoso departamento de ciência da computação da instituição. O curso não será ministrado por alunos ou especialistas externos. Em vez disso, disse ele, “será uma aula normal de Stanford”.

Luby, parceiro de Edwards na aula sobre extinção humana, também parece achar esses argumentos persuasivos. Ele já havia reorganizado a ordem de seus planos de aula sobre IA para ajudar os alunos a perceber os riscos iminentes da IA. Edwards, por outro lado, ainda vê coisas como a mudança climática como uma ameaça maior do que a IA desonesta. Mas o ChatGPT e o rápido lançamento de modelos de IA o convenceram de que deve haver espaço para pensar na segurança da IA. / TRADUÇÃO BRUNA ARIMATHEA

THE WASHINGTON POST - Paul Edwards, pesquisador da Universidade Stanford que passou décadas estudando guerras nucleares e mudanças climáticas, se considera “um cara do apocalipse”. Por isso, ajudou a desenvolver uma aula para calouros sobre a prevenção da extinção humana. Trabalhando com o epidemiologista Steve Luby, professor de medicina e doenças infecciosas, a dupla se concentrou em três ameaças conhecidas à espécie — pandemias globais, mudanças climáticas extremas e guerra nuclear. Agora, ele mira a suposta quarta ameaça mais recente: inteligência artificial (IA) avançada.

Nessa última frente, Edwards achava que os jovens estariam preocupados com as ameaças imediatas, como a vigilância por IA, a desinformação ou as armas autônomas que atingem e matam sem intervenção humana. Mas ele logo descobriu que alguns alunos estavam mais concentrados em um risco puramente hipotético: a possibilidade de a IA se tornar tão inteligente quanto os humanos e destruir a humanidade.

A ficção científica há muito tempo contempla a IA rebelde, do HAL 9000, do filme “Uma Odisseia no Espaço” à Skynet, do “Exterminador do Futuro”. Mas, nos últimos anos, o Vale do Silício se encantou com uma visão distinta de como a superinteligência pode dar errado, derivada de experimentos mentais à margem da cultura tecnológica. Nesses cenários, a IA não é necessariamente consciente. Em vez disso, ela se fixa em um objetivo - mesmo que seja um objetivo mundano, como fazer clipes de papel - e desencadeia a extinção humana para otimizar sua tarefa.

Para evitar esse resultado teórico, mas cataclísmico, laboratórios orientados por supostas missões “benevolentes”, como DeepMind, OpenAI e Anthropic, estão correndo para criar um tipo de IA programada para não mentir, enganar ou nos matar. Enquanto isso, doadores como Elon Musk, CEO da Tesla, e Sam Bankman-Fried, fundador da FTX, trabalham para tirar os pessimistas do setor das margens e levá-los para o mainstream.

Mais recentemente, filantropos ricos do setor de tecnologia começaram a recrutar um exército de estudantes universitários de elite para priorizar a luta contra a IA desonesta em detrimento de outras ameaças - uma das principais críticas à visão distópica da IA é que ela ignora problemas reais, como viés racial e vigilância permanente.

A ONG Open Philanthropy, por exemplo, canalizou quase meio bilhão de dólares para desenvolver um canal de talentos para combater a IA rebelde, construindo um conjunto de canais do YouTube, competições de prêmios, subsídios, financiamento de pesquisa e bolsas de estudo.

Recrutamento

As faculdades têm sido fundamentais para essa estratégia de crescimento, servindo tanto como um caminho para o prestígio quanto como um campo de recrutamento de talentos idealistas. No último ano e meio, grupos de segurança de IA surgiram em cerca de 20 campi nos Estados Unidos e na Europa (incluindo Harvard, Georgia Tech, MIT, Columbia e New York University), muitos liderados por estudantes financiados pela nova bolsa universitária da Open Philanthropy.

Em Stanford, a Open Philanthropy concedeu a Luby e a Edwards mais de US$ 1,5 milhão em subsídios para lançar a Stanford Existential Risk Initiative (Iniciativa de Risco Existencial de Stanford), que apoia a pesquisa de estudantes no campo crescente conhecido como “segurança de IA” ou “alinhamento de IA”.

Essas iniciativas treinam os alunos em aprendizado de máquina e os ajudam a encontrar empregos em startups de IA ou em um dos muitos grupos sem fins lucrativos dedicados à segurança da IA. Muitos desses líderes estudantis recém-formados veem a IA rebelde como uma ameaça urgente e negligenciada, potencialmente rivalizando com a mudança climática em sua capacidade de acabar com a vida humana — eles veem a IA avançada como o Projeto Manhattan, que criou a bomba atômica, de sua geração.

ChatGPT foi lançado em novembro passado pela OpenAI, empresa americana de inteligência artificial Foto: Dado Ruvic/Reuters

Entre eles está Gabriel Mukobi, 23, que se formou em Stanford em junho e está fazendo a transição para um programa de mestrado em ciência da computação. Mukobi ajudou a organizar um grupo de segurança de IA no campus no verão passado e sonha em tornar Stanford um centro de trabalho de segurança de IA. Apesar dos laços da escola com o Vale do Silício, Mukobi disse que ela fica atrás da vizinha UC Berkeley, onde membros mais jovens do corpo docente pesquisam alinhamento de IA, o termo para incorporar a ética humana aos sistemas de inteligência.

“Isso parece ser algo muito, muito importante”, disse Mukobi, “e eu quero fazer isso acontecer”.

Quando Mukobi ouviu pela primeira vez a teoria de que a IA poderia erradicar a humanidade, ele achou difícil de acreditar. Na época, Mukobi estava no segundo ano do ensino médio em um ano sabático durante a pandemia.

Entretanto, no verão passado, ele crou o grupo de Alinhamento de IA de Stanford (SAIA) em uma publicação de blog com o diagrama de uma árvore representando seu plano. Para se proteger contra os “riscos à reputação” de trabalhar em um campo que alguns consideram duvidoso, Mukobi escreveu: “Priorizaremos os alunos e evitaremos o alcance direcionado a professores de IA não alinhados”.

Movimentos como o de Mukobi influenciaram com sucesso a cultura de IA por meio de estruturas sociais construídas em torno da troca de ideias, disse Shazeda Ahmed, pesquisador associado de pós-doutorado do Center for Information Technology Policy da Universidade de Princeton.

Os líderes estudantis têm acesso a uma grande quantidade de recursos de organizações patrocinadas por doadores, incluindo um currículo de “Fundamentos de Segurança de IA” desenvolvido por um funcionário da OpenAI.

Mundo novo

Desde o lançamento do ChatGPT, em novembro, a discussão sobre a segurança da IA explodiu em um ritmo vertiginoso. Os laboratórios corporativos que veem a inteligência artificial avançada como inevitável e querem que os benefícios sociais superem os riscos estão cada vez mais promovendo a segurança da IA como o antídoto para os piores resultados temidos.

Todo mundo está começando a perceber algumas das consequências da IA avançada

Gabriel Mukobi, 23, formado em Stanford

Em Stanford, Mukobi tentou capitalizar o interesse repentino.

Depois que Yoshua Bengio, um dos “padrinhos” do deep learning, assinou uma carta aberta em março pedindo que o setor de IA fizesse uma pausa, Mukobi enviou outro e-mail para as listas de discussão dos alunos de Stanford alertando que a segurança da IA estava sendo eclipsada pelos rápidos avanços no campo.

“Todo mundo está começando a perceber algumas das consequências”, escreveu ele, vinculando cada palavra a um recente artigo de opinião, tuíte, publicação do Substack, artigo ou vídeo do YouTube alertando sobre os perigos da “IA desalinhada”.

Pioneiro da inteligência artificial, Geoffrey Hinton deixou o Google em maio passado Foto: Mark Blinch/Reuters

A essa altura, a SAIA já havia iniciado seu segundo conjunto de discussões estudantis sobre alinhamento introdutório e intermediário de IA, que 100 alunos concluíram até o momento. “Não se obtém segurança por padrão, é preciso incorporá-la - e ninguém sabe como fazer isso ainda”, escreveu ele.

Mukobi se sente animado com o crescente consenso de que vale a pena explorar esses riscos. Ele ouviu os alunos falarem sobre a segurança da IA nos corredores do Gates, o prédio de ciência da computação, em maio, depois que Geoffrey Hinton, outro “padrinho” da IA, saiu do Google para alertar sobre a IA. Até o final do ano, Mukobi acredita que o assunto poderá ser um tema de mesa de jantar, assim como as mudanças climáticas ou a guerra na Ucrânia.

O interesse pelo tema também está crescendo entre os membros do corpo docente de Stanford, disse o professor Edwards. Ele observou que um novo pós-doutorando conduzirá uma aula sobre alinhamento no próximo semestre no famoso departamento de ciência da computação da instituição. O curso não será ministrado por alunos ou especialistas externos. Em vez disso, disse ele, “será uma aula normal de Stanford”.

Luby, parceiro de Edwards na aula sobre extinção humana, também parece achar esses argumentos persuasivos. Ele já havia reorganizado a ordem de seus planos de aula sobre IA para ajudar os alunos a perceber os riscos iminentes da IA. Edwards, por outro lado, ainda vê coisas como a mudança climática como uma ameaça maior do que a IA desonesta. Mas o ChatGPT e o rápido lançamento de modelos de IA o convenceram de que deve haver espaço para pensar na segurança da IA. / TRADUÇÃO BRUNA ARIMATHEA

THE WASHINGTON POST - Paul Edwards, pesquisador da Universidade Stanford que passou décadas estudando guerras nucleares e mudanças climáticas, se considera “um cara do apocalipse”. Por isso, ajudou a desenvolver uma aula para calouros sobre a prevenção da extinção humana. Trabalhando com o epidemiologista Steve Luby, professor de medicina e doenças infecciosas, a dupla se concentrou em três ameaças conhecidas à espécie — pandemias globais, mudanças climáticas extremas e guerra nuclear. Agora, ele mira a suposta quarta ameaça mais recente: inteligência artificial (IA) avançada.

Nessa última frente, Edwards achava que os jovens estariam preocupados com as ameaças imediatas, como a vigilância por IA, a desinformação ou as armas autônomas que atingem e matam sem intervenção humana. Mas ele logo descobriu que alguns alunos estavam mais concentrados em um risco puramente hipotético: a possibilidade de a IA se tornar tão inteligente quanto os humanos e destruir a humanidade.

A ficção científica há muito tempo contempla a IA rebelde, do HAL 9000, do filme “Uma Odisseia no Espaço” à Skynet, do “Exterminador do Futuro”. Mas, nos últimos anos, o Vale do Silício se encantou com uma visão distinta de como a superinteligência pode dar errado, derivada de experimentos mentais à margem da cultura tecnológica. Nesses cenários, a IA não é necessariamente consciente. Em vez disso, ela se fixa em um objetivo - mesmo que seja um objetivo mundano, como fazer clipes de papel - e desencadeia a extinção humana para otimizar sua tarefa.

Para evitar esse resultado teórico, mas cataclísmico, laboratórios orientados por supostas missões “benevolentes”, como DeepMind, OpenAI e Anthropic, estão correndo para criar um tipo de IA programada para não mentir, enganar ou nos matar. Enquanto isso, doadores como Elon Musk, CEO da Tesla, e Sam Bankman-Fried, fundador da FTX, trabalham para tirar os pessimistas do setor das margens e levá-los para o mainstream.

Mais recentemente, filantropos ricos do setor de tecnologia começaram a recrutar um exército de estudantes universitários de elite para priorizar a luta contra a IA desonesta em detrimento de outras ameaças - uma das principais críticas à visão distópica da IA é que ela ignora problemas reais, como viés racial e vigilância permanente.

A ONG Open Philanthropy, por exemplo, canalizou quase meio bilhão de dólares para desenvolver um canal de talentos para combater a IA rebelde, construindo um conjunto de canais do YouTube, competições de prêmios, subsídios, financiamento de pesquisa e bolsas de estudo.

Recrutamento

As faculdades têm sido fundamentais para essa estratégia de crescimento, servindo tanto como um caminho para o prestígio quanto como um campo de recrutamento de talentos idealistas. No último ano e meio, grupos de segurança de IA surgiram em cerca de 20 campi nos Estados Unidos e na Europa (incluindo Harvard, Georgia Tech, MIT, Columbia e New York University), muitos liderados por estudantes financiados pela nova bolsa universitária da Open Philanthropy.

Em Stanford, a Open Philanthropy concedeu a Luby e a Edwards mais de US$ 1,5 milhão em subsídios para lançar a Stanford Existential Risk Initiative (Iniciativa de Risco Existencial de Stanford), que apoia a pesquisa de estudantes no campo crescente conhecido como “segurança de IA” ou “alinhamento de IA”.

Essas iniciativas treinam os alunos em aprendizado de máquina e os ajudam a encontrar empregos em startups de IA ou em um dos muitos grupos sem fins lucrativos dedicados à segurança da IA. Muitos desses líderes estudantis recém-formados veem a IA rebelde como uma ameaça urgente e negligenciada, potencialmente rivalizando com a mudança climática em sua capacidade de acabar com a vida humana — eles veem a IA avançada como o Projeto Manhattan, que criou a bomba atômica, de sua geração.

ChatGPT foi lançado em novembro passado pela OpenAI, empresa americana de inteligência artificial Foto: Dado Ruvic/Reuters

Entre eles está Gabriel Mukobi, 23, que se formou em Stanford em junho e está fazendo a transição para um programa de mestrado em ciência da computação. Mukobi ajudou a organizar um grupo de segurança de IA no campus no verão passado e sonha em tornar Stanford um centro de trabalho de segurança de IA. Apesar dos laços da escola com o Vale do Silício, Mukobi disse que ela fica atrás da vizinha UC Berkeley, onde membros mais jovens do corpo docente pesquisam alinhamento de IA, o termo para incorporar a ética humana aos sistemas de inteligência.

“Isso parece ser algo muito, muito importante”, disse Mukobi, “e eu quero fazer isso acontecer”.

Quando Mukobi ouviu pela primeira vez a teoria de que a IA poderia erradicar a humanidade, ele achou difícil de acreditar. Na época, Mukobi estava no segundo ano do ensino médio em um ano sabático durante a pandemia.

Entretanto, no verão passado, ele crou o grupo de Alinhamento de IA de Stanford (SAIA) em uma publicação de blog com o diagrama de uma árvore representando seu plano. Para se proteger contra os “riscos à reputação” de trabalhar em um campo que alguns consideram duvidoso, Mukobi escreveu: “Priorizaremos os alunos e evitaremos o alcance direcionado a professores de IA não alinhados”.

Movimentos como o de Mukobi influenciaram com sucesso a cultura de IA por meio de estruturas sociais construídas em torno da troca de ideias, disse Shazeda Ahmed, pesquisador associado de pós-doutorado do Center for Information Technology Policy da Universidade de Princeton.

Os líderes estudantis têm acesso a uma grande quantidade de recursos de organizações patrocinadas por doadores, incluindo um currículo de “Fundamentos de Segurança de IA” desenvolvido por um funcionário da OpenAI.

Mundo novo

Desde o lançamento do ChatGPT, em novembro, a discussão sobre a segurança da IA explodiu em um ritmo vertiginoso. Os laboratórios corporativos que veem a inteligência artificial avançada como inevitável e querem que os benefícios sociais superem os riscos estão cada vez mais promovendo a segurança da IA como o antídoto para os piores resultados temidos.

Todo mundo está começando a perceber algumas das consequências da IA avançada

Gabriel Mukobi, 23, formado em Stanford

Em Stanford, Mukobi tentou capitalizar o interesse repentino.

Depois que Yoshua Bengio, um dos “padrinhos” do deep learning, assinou uma carta aberta em março pedindo que o setor de IA fizesse uma pausa, Mukobi enviou outro e-mail para as listas de discussão dos alunos de Stanford alertando que a segurança da IA estava sendo eclipsada pelos rápidos avanços no campo.

“Todo mundo está começando a perceber algumas das consequências”, escreveu ele, vinculando cada palavra a um recente artigo de opinião, tuíte, publicação do Substack, artigo ou vídeo do YouTube alertando sobre os perigos da “IA desalinhada”.

Pioneiro da inteligência artificial, Geoffrey Hinton deixou o Google em maio passado Foto: Mark Blinch/Reuters

A essa altura, a SAIA já havia iniciado seu segundo conjunto de discussões estudantis sobre alinhamento introdutório e intermediário de IA, que 100 alunos concluíram até o momento. “Não se obtém segurança por padrão, é preciso incorporá-la - e ninguém sabe como fazer isso ainda”, escreveu ele.

Mukobi se sente animado com o crescente consenso de que vale a pena explorar esses riscos. Ele ouviu os alunos falarem sobre a segurança da IA nos corredores do Gates, o prédio de ciência da computação, em maio, depois que Geoffrey Hinton, outro “padrinho” da IA, saiu do Google para alertar sobre a IA. Até o final do ano, Mukobi acredita que o assunto poderá ser um tema de mesa de jantar, assim como as mudanças climáticas ou a guerra na Ucrânia.

O interesse pelo tema também está crescendo entre os membros do corpo docente de Stanford, disse o professor Edwards. Ele observou que um novo pós-doutorando conduzirá uma aula sobre alinhamento no próximo semestre no famoso departamento de ciência da computação da instituição. O curso não será ministrado por alunos ou especialistas externos. Em vez disso, disse ele, “será uma aula normal de Stanford”.

Luby, parceiro de Edwards na aula sobre extinção humana, também parece achar esses argumentos persuasivos. Ele já havia reorganizado a ordem de seus planos de aula sobre IA para ajudar os alunos a perceber os riscos iminentes da IA. Edwards, por outro lado, ainda vê coisas como a mudança climática como uma ameaça maior do que a IA desonesta. Mas o ChatGPT e o rápido lançamento de modelos de IA o convenceram de que deve haver espaço para pensar na segurança da IA. / TRADUÇÃO BRUNA ARIMATHEA

THE WASHINGTON POST - Paul Edwards, pesquisador da Universidade Stanford que passou décadas estudando guerras nucleares e mudanças climáticas, se considera “um cara do apocalipse”. Por isso, ajudou a desenvolver uma aula para calouros sobre a prevenção da extinção humana. Trabalhando com o epidemiologista Steve Luby, professor de medicina e doenças infecciosas, a dupla se concentrou em três ameaças conhecidas à espécie — pandemias globais, mudanças climáticas extremas e guerra nuclear. Agora, ele mira a suposta quarta ameaça mais recente: inteligência artificial (IA) avançada.

Nessa última frente, Edwards achava que os jovens estariam preocupados com as ameaças imediatas, como a vigilância por IA, a desinformação ou as armas autônomas que atingem e matam sem intervenção humana. Mas ele logo descobriu que alguns alunos estavam mais concentrados em um risco puramente hipotético: a possibilidade de a IA se tornar tão inteligente quanto os humanos e destruir a humanidade.

A ficção científica há muito tempo contempla a IA rebelde, do HAL 9000, do filme “Uma Odisseia no Espaço” à Skynet, do “Exterminador do Futuro”. Mas, nos últimos anos, o Vale do Silício se encantou com uma visão distinta de como a superinteligência pode dar errado, derivada de experimentos mentais à margem da cultura tecnológica. Nesses cenários, a IA não é necessariamente consciente. Em vez disso, ela se fixa em um objetivo - mesmo que seja um objetivo mundano, como fazer clipes de papel - e desencadeia a extinção humana para otimizar sua tarefa.

Para evitar esse resultado teórico, mas cataclísmico, laboratórios orientados por supostas missões “benevolentes”, como DeepMind, OpenAI e Anthropic, estão correndo para criar um tipo de IA programada para não mentir, enganar ou nos matar. Enquanto isso, doadores como Elon Musk, CEO da Tesla, e Sam Bankman-Fried, fundador da FTX, trabalham para tirar os pessimistas do setor das margens e levá-los para o mainstream.

Mais recentemente, filantropos ricos do setor de tecnologia começaram a recrutar um exército de estudantes universitários de elite para priorizar a luta contra a IA desonesta em detrimento de outras ameaças - uma das principais críticas à visão distópica da IA é que ela ignora problemas reais, como viés racial e vigilância permanente.

A ONG Open Philanthropy, por exemplo, canalizou quase meio bilhão de dólares para desenvolver um canal de talentos para combater a IA rebelde, construindo um conjunto de canais do YouTube, competições de prêmios, subsídios, financiamento de pesquisa e bolsas de estudo.

Recrutamento

As faculdades têm sido fundamentais para essa estratégia de crescimento, servindo tanto como um caminho para o prestígio quanto como um campo de recrutamento de talentos idealistas. No último ano e meio, grupos de segurança de IA surgiram em cerca de 20 campi nos Estados Unidos e na Europa (incluindo Harvard, Georgia Tech, MIT, Columbia e New York University), muitos liderados por estudantes financiados pela nova bolsa universitária da Open Philanthropy.

Em Stanford, a Open Philanthropy concedeu a Luby e a Edwards mais de US$ 1,5 milhão em subsídios para lançar a Stanford Existential Risk Initiative (Iniciativa de Risco Existencial de Stanford), que apoia a pesquisa de estudantes no campo crescente conhecido como “segurança de IA” ou “alinhamento de IA”.

Essas iniciativas treinam os alunos em aprendizado de máquina e os ajudam a encontrar empregos em startups de IA ou em um dos muitos grupos sem fins lucrativos dedicados à segurança da IA. Muitos desses líderes estudantis recém-formados veem a IA rebelde como uma ameaça urgente e negligenciada, potencialmente rivalizando com a mudança climática em sua capacidade de acabar com a vida humana — eles veem a IA avançada como o Projeto Manhattan, que criou a bomba atômica, de sua geração.

ChatGPT foi lançado em novembro passado pela OpenAI, empresa americana de inteligência artificial Foto: Dado Ruvic/Reuters

Entre eles está Gabriel Mukobi, 23, que se formou em Stanford em junho e está fazendo a transição para um programa de mestrado em ciência da computação. Mukobi ajudou a organizar um grupo de segurança de IA no campus no verão passado e sonha em tornar Stanford um centro de trabalho de segurança de IA. Apesar dos laços da escola com o Vale do Silício, Mukobi disse que ela fica atrás da vizinha UC Berkeley, onde membros mais jovens do corpo docente pesquisam alinhamento de IA, o termo para incorporar a ética humana aos sistemas de inteligência.

“Isso parece ser algo muito, muito importante”, disse Mukobi, “e eu quero fazer isso acontecer”.

Quando Mukobi ouviu pela primeira vez a teoria de que a IA poderia erradicar a humanidade, ele achou difícil de acreditar. Na época, Mukobi estava no segundo ano do ensino médio em um ano sabático durante a pandemia.

Entretanto, no verão passado, ele crou o grupo de Alinhamento de IA de Stanford (SAIA) em uma publicação de blog com o diagrama de uma árvore representando seu plano. Para se proteger contra os “riscos à reputação” de trabalhar em um campo que alguns consideram duvidoso, Mukobi escreveu: “Priorizaremos os alunos e evitaremos o alcance direcionado a professores de IA não alinhados”.

Movimentos como o de Mukobi influenciaram com sucesso a cultura de IA por meio de estruturas sociais construídas em torno da troca de ideias, disse Shazeda Ahmed, pesquisador associado de pós-doutorado do Center for Information Technology Policy da Universidade de Princeton.

Os líderes estudantis têm acesso a uma grande quantidade de recursos de organizações patrocinadas por doadores, incluindo um currículo de “Fundamentos de Segurança de IA” desenvolvido por um funcionário da OpenAI.

Mundo novo

Desde o lançamento do ChatGPT, em novembro, a discussão sobre a segurança da IA explodiu em um ritmo vertiginoso. Os laboratórios corporativos que veem a inteligência artificial avançada como inevitável e querem que os benefícios sociais superem os riscos estão cada vez mais promovendo a segurança da IA como o antídoto para os piores resultados temidos.

Todo mundo está começando a perceber algumas das consequências da IA avançada

Gabriel Mukobi, 23, formado em Stanford

Em Stanford, Mukobi tentou capitalizar o interesse repentino.

Depois que Yoshua Bengio, um dos “padrinhos” do deep learning, assinou uma carta aberta em março pedindo que o setor de IA fizesse uma pausa, Mukobi enviou outro e-mail para as listas de discussão dos alunos de Stanford alertando que a segurança da IA estava sendo eclipsada pelos rápidos avanços no campo.

“Todo mundo está começando a perceber algumas das consequências”, escreveu ele, vinculando cada palavra a um recente artigo de opinião, tuíte, publicação do Substack, artigo ou vídeo do YouTube alertando sobre os perigos da “IA desalinhada”.

Pioneiro da inteligência artificial, Geoffrey Hinton deixou o Google em maio passado Foto: Mark Blinch/Reuters

A essa altura, a SAIA já havia iniciado seu segundo conjunto de discussões estudantis sobre alinhamento introdutório e intermediário de IA, que 100 alunos concluíram até o momento. “Não se obtém segurança por padrão, é preciso incorporá-la - e ninguém sabe como fazer isso ainda”, escreveu ele.

Mukobi se sente animado com o crescente consenso de que vale a pena explorar esses riscos. Ele ouviu os alunos falarem sobre a segurança da IA nos corredores do Gates, o prédio de ciência da computação, em maio, depois que Geoffrey Hinton, outro “padrinho” da IA, saiu do Google para alertar sobre a IA. Até o final do ano, Mukobi acredita que o assunto poderá ser um tema de mesa de jantar, assim como as mudanças climáticas ou a guerra na Ucrânia.

O interesse pelo tema também está crescendo entre os membros do corpo docente de Stanford, disse o professor Edwards. Ele observou que um novo pós-doutorando conduzirá uma aula sobre alinhamento no próximo semestre no famoso departamento de ciência da computação da instituição. O curso não será ministrado por alunos ou especialistas externos. Em vez disso, disse ele, “será uma aula normal de Stanford”.

Luby, parceiro de Edwards na aula sobre extinção humana, também parece achar esses argumentos persuasivos. Ele já havia reorganizado a ordem de seus planos de aula sobre IA para ajudar os alunos a perceber os riscos iminentes da IA. Edwards, por outro lado, ainda vê coisas como a mudança climática como uma ameaça maior do que a IA desonesta. Mas o ChatGPT e o rápido lançamento de modelos de IA o convenceram de que deve haver espaço para pensar na segurança da IA. / TRADUÇÃO BRUNA ARIMATHEA

Atualizamos nossa política de cookies

Ao utilizar nossos serviços, você aceita a política de monitoramento de cookies.