IA pode trazer ‘risco de extinção’ da humanidade ao longo dos anos, dizem especialistas


Carta publicada pelo Center for AI Safety afirma que autoridades precisam tratar o assunto com a mesma prioridade de uma guerra nuclear

Por Bruna Arimathea

Cientistas e empresários no comando de gigantes de tecnologia assinaram nesta terça-feira, 30, uma carta aberta afirmando ser necessário destinar esforços para que o desenvolvimento da inteligência artificial (IA) não coloque em risco a existência da humanidade. O documento foi assinado por Sam Altman, CEO da OpenAI e Demis Hassabis, chefe do Google DeepMind, além de Geoffrey Hinton e Yoshua Bengio, dois dos pesquisadores considerados “padrinhos” da IA moderna.

A carta foi publicada pelo Center for AI Safety, órgão que pesquisa riscos da IA na sociedade, e possui apenas uma frase: “Mitigar o risco de extinção pela IA deve ser uma prioridade global juntamente com outros riscos em escala societal, como pandemias e guerra nuclear”. Até o momento, mais de 350 especialistas já assinaram a petição.

Seguindo um movimento de desconfiança com a IA, o documento é fruto da preocupação com o rápido desenvolvimento da IA em produtos generativos — como chatbots, geradores de imagem e de texto. Essas ferramentas poderiam potencializar a desinformação e a deturpação de dados a ponto de colocar a humanidade em risco.

continua após a publicidade

A discussão também aparece em um momento onde a regulação da IA começa a ser trabalhada de forma mais concreta em governos do mundo inteiro. Diante do Congresso americano, em meados de maio, Altman, da OpenAI, afirmou que era necessário regular a IA para manter o desenvolvimento da tecnologia sob controle — e que, se a inteligência artificial desse errado, as consequências seriam “muito erradas”.

Sam Altman participou de evento no Rio de Janeiro em meados de maio Foto: Fundação Lemann/Divulgação

Em partes, a preocupação passa pelo o que os cientistas chamam de AGI, sigla para “artificial general intelligence”, um tipo de IA que poderia não apenas gerar conteúdos próximos ao que um humano pensa, mas também entender e sentir como uma pessoa real. Mesmo que o surgimento desse tipo de tecnologia ainda seja considerado distante, é algo já levado em consideração por especialistas do meio.

continua após a publicidade

Em março deste ano, uma outra carta assinada por mais de mil especialistas pedia a pausa do desenvolvimento da IA por seis meses. Na petição, publicada no site futureoflife.org, eles pedem um prazo até que sejam estabelecidos sistemas de segurança com novas autoridades reguladoras, vigilância de sistemas de IA, técnicas que ajudem a distinguir entre o real e o artificial e instituições capazes de fazer frente às “dramáticas perturbações econômicas e políticas (especialmente para a democracia) que a IA irá causar”.

Cientistas e empresários no comando de gigantes de tecnologia assinaram nesta terça-feira, 30, uma carta aberta afirmando ser necessário destinar esforços para que o desenvolvimento da inteligência artificial (IA) não coloque em risco a existência da humanidade. O documento foi assinado por Sam Altman, CEO da OpenAI e Demis Hassabis, chefe do Google DeepMind, além de Geoffrey Hinton e Yoshua Bengio, dois dos pesquisadores considerados “padrinhos” da IA moderna.

A carta foi publicada pelo Center for AI Safety, órgão que pesquisa riscos da IA na sociedade, e possui apenas uma frase: “Mitigar o risco de extinção pela IA deve ser uma prioridade global juntamente com outros riscos em escala societal, como pandemias e guerra nuclear”. Até o momento, mais de 350 especialistas já assinaram a petição.

Seguindo um movimento de desconfiança com a IA, o documento é fruto da preocupação com o rápido desenvolvimento da IA em produtos generativos — como chatbots, geradores de imagem e de texto. Essas ferramentas poderiam potencializar a desinformação e a deturpação de dados a ponto de colocar a humanidade em risco.

A discussão também aparece em um momento onde a regulação da IA começa a ser trabalhada de forma mais concreta em governos do mundo inteiro. Diante do Congresso americano, em meados de maio, Altman, da OpenAI, afirmou que era necessário regular a IA para manter o desenvolvimento da tecnologia sob controle — e que, se a inteligência artificial desse errado, as consequências seriam “muito erradas”.

Sam Altman participou de evento no Rio de Janeiro em meados de maio Foto: Fundação Lemann/Divulgação

Em partes, a preocupação passa pelo o que os cientistas chamam de AGI, sigla para “artificial general intelligence”, um tipo de IA que poderia não apenas gerar conteúdos próximos ao que um humano pensa, mas também entender e sentir como uma pessoa real. Mesmo que o surgimento desse tipo de tecnologia ainda seja considerado distante, é algo já levado em consideração por especialistas do meio.

Em março deste ano, uma outra carta assinada por mais de mil especialistas pedia a pausa do desenvolvimento da IA por seis meses. Na petição, publicada no site futureoflife.org, eles pedem um prazo até que sejam estabelecidos sistemas de segurança com novas autoridades reguladoras, vigilância de sistemas de IA, técnicas que ajudem a distinguir entre o real e o artificial e instituições capazes de fazer frente às “dramáticas perturbações econômicas e políticas (especialmente para a democracia) que a IA irá causar”.

Cientistas e empresários no comando de gigantes de tecnologia assinaram nesta terça-feira, 30, uma carta aberta afirmando ser necessário destinar esforços para que o desenvolvimento da inteligência artificial (IA) não coloque em risco a existência da humanidade. O documento foi assinado por Sam Altman, CEO da OpenAI e Demis Hassabis, chefe do Google DeepMind, além de Geoffrey Hinton e Yoshua Bengio, dois dos pesquisadores considerados “padrinhos” da IA moderna.

A carta foi publicada pelo Center for AI Safety, órgão que pesquisa riscos da IA na sociedade, e possui apenas uma frase: “Mitigar o risco de extinção pela IA deve ser uma prioridade global juntamente com outros riscos em escala societal, como pandemias e guerra nuclear”. Até o momento, mais de 350 especialistas já assinaram a petição.

Seguindo um movimento de desconfiança com a IA, o documento é fruto da preocupação com o rápido desenvolvimento da IA em produtos generativos — como chatbots, geradores de imagem e de texto. Essas ferramentas poderiam potencializar a desinformação e a deturpação de dados a ponto de colocar a humanidade em risco.

A discussão também aparece em um momento onde a regulação da IA começa a ser trabalhada de forma mais concreta em governos do mundo inteiro. Diante do Congresso americano, em meados de maio, Altman, da OpenAI, afirmou que era necessário regular a IA para manter o desenvolvimento da tecnologia sob controle — e que, se a inteligência artificial desse errado, as consequências seriam “muito erradas”.

Sam Altman participou de evento no Rio de Janeiro em meados de maio Foto: Fundação Lemann/Divulgação

Em partes, a preocupação passa pelo o que os cientistas chamam de AGI, sigla para “artificial general intelligence”, um tipo de IA que poderia não apenas gerar conteúdos próximos ao que um humano pensa, mas também entender e sentir como uma pessoa real. Mesmo que o surgimento desse tipo de tecnologia ainda seja considerado distante, é algo já levado em consideração por especialistas do meio.

Em março deste ano, uma outra carta assinada por mais de mil especialistas pedia a pausa do desenvolvimento da IA por seis meses. Na petição, publicada no site futureoflife.org, eles pedem um prazo até que sejam estabelecidos sistemas de segurança com novas autoridades reguladoras, vigilância de sistemas de IA, técnicas que ajudem a distinguir entre o real e o artificial e instituições capazes de fazer frente às “dramáticas perturbações econômicas e políticas (especialmente para a democracia) que a IA irá causar”.

Atualizamos nossa política de cookies

Ao utilizar nossos serviços, você aceita a política de monitoramento de cookies.