IA ameaça extinguir a espécie humana se não for detida, diz relatório encomendado pelos EUA


Estudo feito pela Gladstone AI alerta para possíveis AGIs no futuro, se a IA não for regulada a tempo

Por Bruna Arimathea
Atualização:

Um relatório encomendado pelo governo dos EUA alertou que a inteligência artificial (IA) pode estar se tornando um risco para a segurança nacional e que é necessário tomar providências rápidas para que a tecnologia não se torne uma “ameaça em nível de extinção para a espécie humana”.

De acordo com o relatório, o temor é que o desenvolvimento da IA esteja evoluindo para uma AGI - inteligência artificial geral, na sigla em inglês - uma tecnologia que poderia imitar perfeitamente o funcionamento de uma mente humana.

continua após a publicidade

“A ascensão da IA avançada e da AGI tem o potencial de desestabilizar a segurança global de maneiras que lembram a introdução de armas nucleares”, afirmou o estudo realizado pela Gladstone AI, uma empresa especializada em consultoria técnica de IA, pedido pelo governo americano.

Para evitar danos à humanidade, o relatório sugere que seja criada uma comissão de supervisão de IA, que possa identificar e impor um limite que deixe claro até onde as empresas de tecnologia podem desenvolver seus produtos. Outra medida seria submeter o trabalho dessas empresas a uma espécie de supervisão do governo, para que apenas projetos aprovados pela comissão fossem levados adiante.

O temor é que o desenvolvimento da IA esteja evoluindo para uma AGI, tecnologia que poderia imitar o funcionamento de uma mente humana Foto: Aly Song/Reuters
continua após a publicidade

Ainda, o estudo afirma ser necessário que todas essas atitudes sejam tomadas de forma rápida e definitiva, para que a IA possa ser “controlada” antes de dados contra a humanidade se tornarem irreversíveis. Ele também afirma que essas medidas poderiam “moderar a dinâmica da corrida entre todos os desenvolvedores de IA”.

O relatório, encomendado pelo governo dos EUA em 2022, levou um ano para ser produzido e reuniu, além dos estudos na área, entrevistas com engenheiros e cientistas de empresas importantes no cenário de IA, como DeepMind, do Google, OpenAI, Meta e Anthropic.

O termo “inteligência artificial geral” foi usado pela primeira vez pelo físico Mark Gubrud em 1997 em um artigo sobre nanotecnologia e segurança internacional, porém popularizado a partir de 2001 pelo especialistas em IA Shane Legg, cofundador do Google DeepMind, e Ben Goertzel, o cientista chefe por trás do robô Sofia. Conforme o desenvolvimento tecnológico avançou, o termo passou a ganhar notoriedade, deixando os ambientes acadêmicos e alcançando o jargão comercial, com a ascensão das IAs generativas.

Um relatório encomendado pelo governo dos EUA alertou que a inteligência artificial (IA) pode estar se tornando um risco para a segurança nacional e que é necessário tomar providências rápidas para que a tecnologia não se torne uma “ameaça em nível de extinção para a espécie humana”.

De acordo com o relatório, o temor é que o desenvolvimento da IA esteja evoluindo para uma AGI - inteligência artificial geral, na sigla em inglês - uma tecnologia que poderia imitar perfeitamente o funcionamento de uma mente humana.

“A ascensão da IA avançada e da AGI tem o potencial de desestabilizar a segurança global de maneiras que lembram a introdução de armas nucleares”, afirmou o estudo realizado pela Gladstone AI, uma empresa especializada em consultoria técnica de IA, pedido pelo governo americano.

Para evitar danos à humanidade, o relatório sugere que seja criada uma comissão de supervisão de IA, que possa identificar e impor um limite que deixe claro até onde as empresas de tecnologia podem desenvolver seus produtos. Outra medida seria submeter o trabalho dessas empresas a uma espécie de supervisão do governo, para que apenas projetos aprovados pela comissão fossem levados adiante.

O temor é que o desenvolvimento da IA esteja evoluindo para uma AGI, tecnologia que poderia imitar o funcionamento de uma mente humana Foto: Aly Song/Reuters

Ainda, o estudo afirma ser necessário que todas essas atitudes sejam tomadas de forma rápida e definitiva, para que a IA possa ser “controlada” antes de dados contra a humanidade se tornarem irreversíveis. Ele também afirma que essas medidas poderiam “moderar a dinâmica da corrida entre todos os desenvolvedores de IA”.

O relatório, encomendado pelo governo dos EUA em 2022, levou um ano para ser produzido e reuniu, além dos estudos na área, entrevistas com engenheiros e cientistas de empresas importantes no cenário de IA, como DeepMind, do Google, OpenAI, Meta e Anthropic.

O termo “inteligência artificial geral” foi usado pela primeira vez pelo físico Mark Gubrud em 1997 em um artigo sobre nanotecnologia e segurança internacional, porém popularizado a partir de 2001 pelo especialistas em IA Shane Legg, cofundador do Google DeepMind, e Ben Goertzel, o cientista chefe por trás do robô Sofia. Conforme o desenvolvimento tecnológico avançou, o termo passou a ganhar notoriedade, deixando os ambientes acadêmicos e alcançando o jargão comercial, com a ascensão das IAs generativas.

Um relatório encomendado pelo governo dos EUA alertou que a inteligência artificial (IA) pode estar se tornando um risco para a segurança nacional e que é necessário tomar providências rápidas para que a tecnologia não se torne uma “ameaça em nível de extinção para a espécie humana”.

De acordo com o relatório, o temor é que o desenvolvimento da IA esteja evoluindo para uma AGI - inteligência artificial geral, na sigla em inglês - uma tecnologia que poderia imitar perfeitamente o funcionamento de uma mente humana.

“A ascensão da IA avançada e da AGI tem o potencial de desestabilizar a segurança global de maneiras que lembram a introdução de armas nucleares”, afirmou o estudo realizado pela Gladstone AI, uma empresa especializada em consultoria técnica de IA, pedido pelo governo americano.

Para evitar danos à humanidade, o relatório sugere que seja criada uma comissão de supervisão de IA, que possa identificar e impor um limite que deixe claro até onde as empresas de tecnologia podem desenvolver seus produtos. Outra medida seria submeter o trabalho dessas empresas a uma espécie de supervisão do governo, para que apenas projetos aprovados pela comissão fossem levados adiante.

O temor é que o desenvolvimento da IA esteja evoluindo para uma AGI, tecnologia que poderia imitar o funcionamento de uma mente humana Foto: Aly Song/Reuters

Ainda, o estudo afirma ser necessário que todas essas atitudes sejam tomadas de forma rápida e definitiva, para que a IA possa ser “controlada” antes de dados contra a humanidade se tornarem irreversíveis. Ele também afirma que essas medidas poderiam “moderar a dinâmica da corrida entre todos os desenvolvedores de IA”.

O relatório, encomendado pelo governo dos EUA em 2022, levou um ano para ser produzido e reuniu, além dos estudos na área, entrevistas com engenheiros e cientistas de empresas importantes no cenário de IA, como DeepMind, do Google, OpenAI, Meta e Anthropic.

O termo “inteligência artificial geral” foi usado pela primeira vez pelo físico Mark Gubrud em 1997 em um artigo sobre nanotecnologia e segurança internacional, porém popularizado a partir de 2001 pelo especialistas em IA Shane Legg, cofundador do Google DeepMind, e Ben Goertzel, o cientista chefe por trás do robô Sofia. Conforme o desenvolvimento tecnológico avançou, o termo passou a ganhar notoriedade, deixando os ambientes acadêmicos e alcançando o jargão comercial, com a ascensão das IAs generativas.

Um relatório encomendado pelo governo dos EUA alertou que a inteligência artificial (IA) pode estar se tornando um risco para a segurança nacional e que é necessário tomar providências rápidas para que a tecnologia não se torne uma “ameaça em nível de extinção para a espécie humana”.

De acordo com o relatório, o temor é que o desenvolvimento da IA esteja evoluindo para uma AGI - inteligência artificial geral, na sigla em inglês - uma tecnologia que poderia imitar perfeitamente o funcionamento de uma mente humana.

“A ascensão da IA avançada e da AGI tem o potencial de desestabilizar a segurança global de maneiras que lembram a introdução de armas nucleares”, afirmou o estudo realizado pela Gladstone AI, uma empresa especializada em consultoria técnica de IA, pedido pelo governo americano.

Para evitar danos à humanidade, o relatório sugere que seja criada uma comissão de supervisão de IA, que possa identificar e impor um limite que deixe claro até onde as empresas de tecnologia podem desenvolver seus produtos. Outra medida seria submeter o trabalho dessas empresas a uma espécie de supervisão do governo, para que apenas projetos aprovados pela comissão fossem levados adiante.

O temor é que o desenvolvimento da IA esteja evoluindo para uma AGI, tecnologia que poderia imitar o funcionamento de uma mente humana Foto: Aly Song/Reuters

Ainda, o estudo afirma ser necessário que todas essas atitudes sejam tomadas de forma rápida e definitiva, para que a IA possa ser “controlada” antes de dados contra a humanidade se tornarem irreversíveis. Ele também afirma que essas medidas poderiam “moderar a dinâmica da corrida entre todos os desenvolvedores de IA”.

O relatório, encomendado pelo governo dos EUA em 2022, levou um ano para ser produzido e reuniu, além dos estudos na área, entrevistas com engenheiros e cientistas de empresas importantes no cenário de IA, como DeepMind, do Google, OpenAI, Meta e Anthropic.

O termo “inteligência artificial geral” foi usado pela primeira vez pelo físico Mark Gubrud em 1997 em um artigo sobre nanotecnologia e segurança internacional, porém popularizado a partir de 2001 pelo especialistas em IA Shane Legg, cofundador do Google DeepMind, e Ben Goertzel, o cientista chefe por trás do robô Sofia. Conforme o desenvolvimento tecnológico avançou, o termo passou a ganhar notoriedade, deixando os ambientes acadêmicos e alcançando o jargão comercial, com a ascensão das IAs generativas.

Atualizamos nossa política de cookies

Ao utilizar nossos serviços, você aceita a política de monitoramento de cookies.