Por que governos não são mais capazes de liderar a inovação?


Cúpula de Segurança de inteligência artificial destaca mudança de paradigma, no qual tecnologias mais avançadas se desenvolvem fora do alcance do governo

Por Anthony Faiola e Cat Zakrzewski

THE WASHINGTON POST - Enquanto Adolf Hitler lançava o terror sobre a Europa, o governo britânico recrutava seus melhores e mais brilhantes profissionais para um complexo secreto a noroeste de Londres para decifrar os códigos nazistas. Os esforços de Bletchley Park ajudaram a virar a maré da guerra e lançaram as bases para o computador moderno.

Mas, na semana passada, quando países de seis continentes concluíram uma cúpula histórica sobre os riscos da inteligência artificial (IA) no mesmo local histórico dos decifradores de códigos britânicos, eles se depararam com uma realidade moderna e irritante: os governos não estão mais no controle da inovação estratégica, fato que os faz lutar para conter uma das tecnologias mais poderosas que o mundo já conheceu.

A IA já está sendo implantada em campos de batalha e trilhas de campanhas políticas, possuindo a capacidade de alterar o curso das democracias, minar ou apoiar autocracias e ajudar a determinar os resultados das guerras. No entanto, a tecnologia está sendo desenvolvida sob o véu do sigilo corporativo, em grande parte fora da vista dos órgãos reguladores do governo e com o escopo e os recursos de qualquer modelo guardados zelosamente como informações de propriedade.

continua após a publicidade

As empresas de tecnologia que impulsionam essa inovação estão exigindo limites, mas em seus próprios termos. O CEO da OpenAI, Sam Altman, sugeriu que o governo precisa de um novo órgão regulador para lidar com os futuros modelos avançados de IA, mas a empresa continua a avançar, lançando sistemas de IA cada vez mais poderosos. O CEO da Tesla, Elon Musk, assinou uma carta pedindo uma pausa no desenvolvimento de IA, mas ainda está avançando com sua própria empresa de IA, a xAI.

Rápido desenvolvimento da IA vem preocupando autoridades Foto: Aly Song/Reuters

“Eles estão desafiando os governos a tirar as chaves, o que é bastante difícil, pois os governos basicamente deixaram as empresas de tecnologia fazerem o que quiseram durante décadas”, diz Stuart Russell, um renomado professor de ciência da computação da Universidade da Califórnia, EUA. “Mas minha impressão é que o público já está farto.”

continua após a publicidade

A falta de controles governamentais sobre a IA deixou, em grande parte, um setor construído com base no lucro para autopoliciamento dos riscos e das implicações morais de uma tecnologia capaz de desinformar, arruinar reputações e carreiras e até mesmo tirar vidas humanas.

Isso pode estar mudando. Na semana passada, a União Europeia e 27 países, incluindo os EUA e a China, concordaram com uma declaração histórica para limitar os riscos e aproveitar os benefícios da inteligência artificial. O impulso para a governança global deu um passo à frente, com promessas sem precedentes de cooperação internacional por parte de aliados e adversários.

Na semana passada, os principais líderes de tecnologia, incluindo Altman, o fundador da DeepMind, Demis Hassabis, e o presidente da Microsoft, Brad Smith, se sentaram em uma mesa circular com Harris, o primeiro-ministro britânico Rishi Sunak e outros líderes globais. Os executivos concordaram em permitir que os especialistas do novo Instituto de Segurança de IA da Grã-Bretanha testassem os modelos quanto a riscos antes de sua liberação para o público. Sunak saudou isso como “a conquista marcante da cúpula”, pois a Grã-Bretanha concorda com duas parcerias, com o recém-anunciado Instituto de Segurança de Inteligência Artificial dos EUA e com Cingapura, para colaborar nos testes.

continua após a publicidade

No entanto, há poucos detalhes sobre como os testes funcionariam - ou como eles diferem dos mandatos da Casa Branca - e os acordos são em grande parte voluntários.

Observadores dizem que o esforço global - com cúpulas de acompanhamento planejadas na Coreia do Sul e na França em seis meses e um ano, respectivamente - permanece em sua relativa infância e está sendo muito ultrapassado pela velocidade de desenvolvimento de ferramentas de IA extremamente poderosas.

Musk, que participou do evento de dois dias, zombou dos líderes governamentais ao compartilhar um desenho animado nas mídias sociais que os mostrava dizendo que a IA era uma ameaça à humanidade e que eles mal podiam esperar para desenvolvê-la primeiro.

continua após a publicidade

As empresas agora controlam a maior parte do financiamento para pesquisa e desenvolvimento tecnológico e científico nos EUA. As empresas americanas foram responsáveis por 73% dos gastos com esse tipo de pesquisa em 2020, de acordo com dados compilados pelo National Center for Science and Engineering Statistics. Essa é uma inversão drástica em relação a 1964, quando o financiamento do governo era responsável por 67% desses gastos.

Essa mudança de paradigma criou um vácuo geopolítico, com novas instituições urgentemente necessárias para permitir que os governos equilibrem as oportunidades apresentadas pela IA com as preocupações de segurança nacional, disse Dario Gil, vice-presidente sênior e diretor de pesquisa da IBM.

Ele disse que a Declaração de Bletchley desta semana, bem como os recentes anúncios de dois institutos governamentais de segurança de IA, um na Grã-Bretanha e outro nos EUA, foram passos em direção a esse objetivo.

continua após a publicidade

No entanto, o Instituto de Segurança de IA dos EUA está sendo criado dentro do Instituto Nacional de Padrões e Tecnologia (NIST, na sigla em inglês), um laboratório federal que é notoriamente subfinanciado e com falta de pessoal. Isso pode representar um impedimento importante para controlar as empresas mais ricas do mundo, que estão competindo entre si para lançar os modelos de IA mais avançados.

As equipes do NIST que trabalham com tecnologia emergente e inteligência artificial responsável têm apenas cerca de 20 funcionários, e os desafios de financiamento da agência são tão significativos que seus laboratórios estão se deteriorando. Os equipamentos foram danificados por problemas de encanamento e vazamentos nos telhados, atrasando projetos e gerando novos custos, de acordo com um relatório das Academias Nacionais de Ciências, Engenharia e Medicina.

“As instalações do NIST não são de classe mundial e, portanto, são um impedimento cada vez maior para atrair e manter a equipe em um ambiente altamente competitivo”, disse o relatório de 2023.

continua após a publicidade

O laboratório enfrenta novas demandas para lidar com IA, segurança cibernética, computação quântica e uma série de tecnologias emergentes, mas o Congresso não ampliou seu orçamento para acompanhar o ritmo do mandato em evolução,

“O NIST é uma agência de um US$ 1 bilhão, mas espera-se que funcione como uma agência de US$ 10 bilhões”, disse Divyansh Kaushik, diretor associado de tecnologias emergentes e segurança nacional da Federação de Cientistas Americanos. “Seus prédios estão caindo aos pedaços, os funcionários estão sobrecarregados, alguns estão liderando várias iniciativas ao mesmo tempo e isso é ruim para eles, é ruim para o sucesso dessas iniciativas.”

Cúpula de Segurança de IA durou dois dia e, reuniu representantes de inúmeros países e empresas de tecnologia Foto: Leon Neal/Pool via REUTERS

O porta-voz do Departamento de Comércio, Charlie Andrews, disse que o NIST alcançou “resultados notáveis dentro de seu orçamento”. “Para dar continuidade a esse progresso, é fundamental que, conforme solicitado pelo presidente Biden, o Congresso destine os fundos necessários para acompanhar o ritmo dessa tecnologia em rápida evolução que apresenta oportunidades substanciais e riscos graves se usada de forma irresponsável”, disse ele.

Os governos e as regiões estão adotando uma abordagem fragmentada, com a União Europeia e a China avançando mais rapidamente em direção a uma regulamentação mais rígida. Buscando cultivar o setor, mesmo alertando sobre os graves riscos da IA, os britânicos adotaram as regras mais leves, chamando sua estratégia de uma abordagem “pró-inovação”. Os EUA - que abrigam os maiores e mais sofisticados desenvolvedores de IA - estão em um meio termo, impondo novas obrigações de segurança aos desenvolvedores dos sistemas de IA mais sofisticados, mas não tanto a ponto de impedir o desenvolvimento e o crescimento.

Ao mesmo tempo, os legisladores americanos estão considerando investir bilhões de dólares no desenvolvimento de IA em meio a preocupações com a concorrência com a China. O líder da maioria no Senado, Charles E. Schumer, que está liderando os esforços no Congresso para desenvolver uma legislação de IA, disse que os legisladores estão discutindo a necessidade de um mínimo de US$ 32 bilhões em financiamento.

Por enquanto, os EUA estão adotando medidas cautelosas. As empresas de tecnologia, disse Paul Scharre, vice-presidente executivo do Center for New American Security, não são necessariamente queridas em Washington, EUA, por republicanos ou democratas. E a recente ordem executiva do presidente Biden marcou uma mudança notável em relação às políticas mais laissez faire das empresas de tecnologia no passado.

“Ouvi algumas pessoas argumentarem que o governo só precisa ficar quieto e confiar nessas empresas e que o governo não tem a experiência técnica necessária para regulamentar essa tecnologia”, disse Scharre. “Acho que isso é uma receita para o desastre. Essas empresas não são responsáveis perante o público em geral. Os governos é que são.”

A inclusão da China na declaração de Bletchley decepcionou alguns dos participantes da cúpula, incluindo Michael Kratsios, ex-diretor de tecnologia dos EUA nomeado por Trump. Kratsios disse que participou de uma reunião de cúpula do G-20 em 2019, na qual autoridades da China concordaram com os princípios de IA, incluindo o compromisso de que “os atores de IA devem respeitar os direitos humanos e os valores democráticos em todo o ciclo de vida do sistema de IA”. No entanto, nos últimos meses, a China implementou novas regras para manter a IA vinculada aos “valores socialistas fundamentais” e em conformidade com o vasto regime de censura à internet do país.

“Assim como em quase tudo que se refere a acordos internacionais, eles violaram flagrantemente [os princípios]”, disse Kratsios, que agora é diretor administrativo da ScaleAI.

Enquanto isso, os defensores da sociedade civil que foram afastados do evento principal em Bletchley Park dizem que os governos estão se movendo muito devagar - talvez perigosamente. Beeban Kidron, uma baronesa britânica que defendeu a segurança das crianças online, alertou que os reguladores correm o risco de cometer os mesmos erros que cometeram ao responder às empresas de tecnologia nas últimas décadas, o que “privatizou a riqueza da tecnologia e terceirizou o custo para a sociedade”.

“É o excepcionalismo tecnológico que representa uma ameaça existencial à humanidade, e não a tecnologia em si”, disse Kidron em um discurso na quinta-feira, 2, em um evento em Londres. /TRADUZIDO POR ALICE LABATE

THE WASHINGTON POST - Enquanto Adolf Hitler lançava o terror sobre a Europa, o governo britânico recrutava seus melhores e mais brilhantes profissionais para um complexo secreto a noroeste de Londres para decifrar os códigos nazistas. Os esforços de Bletchley Park ajudaram a virar a maré da guerra e lançaram as bases para o computador moderno.

Mas, na semana passada, quando países de seis continentes concluíram uma cúpula histórica sobre os riscos da inteligência artificial (IA) no mesmo local histórico dos decifradores de códigos britânicos, eles se depararam com uma realidade moderna e irritante: os governos não estão mais no controle da inovação estratégica, fato que os faz lutar para conter uma das tecnologias mais poderosas que o mundo já conheceu.

A IA já está sendo implantada em campos de batalha e trilhas de campanhas políticas, possuindo a capacidade de alterar o curso das democracias, minar ou apoiar autocracias e ajudar a determinar os resultados das guerras. No entanto, a tecnologia está sendo desenvolvida sob o véu do sigilo corporativo, em grande parte fora da vista dos órgãos reguladores do governo e com o escopo e os recursos de qualquer modelo guardados zelosamente como informações de propriedade.

As empresas de tecnologia que impulsionam essa inovação estão exigindo limites, mas em seus próprios termos. O CEO da OpenAI, Sam Altman, sugeriu que o governo precisa de um novo órgão regulador para lidar com os futuros modelos avançados de IA, mas a empresa continua a avançar, lançando sistemas de IA cada vez mais poderosos. O CEO da Tesla, Elon Musk, assinou uma carta pedindo uma pausa no desenvolvimento de IA, mas ainda está avançando com sua própria empresa de IA, a xAI.

Rápido desenvolvimento da IA vem preocupando autoridades Foto: Aly Song/Reuters

“Eles estão desafiando os governos a tirar as chaves, o que é bastante difícil, pois os governos basicamente deixaram as empresas de tecnologia fazerem o que quiseram durante décadas”, diz Stuart Russell, um renomado professor de ciência da computação da Universidade da Califórnia, EUA. “Mas minha impressão é que o público já está farto.”

A falta de controles governamentais sobre a IA deixou, em grande parte, um setor construído com base no lucro para autopoliciamento dos riscos e das implicações morais de uma tecnologia capaz de desinformar, arruinar reputações e carreiras e até mesmo tirar vidas humanas.

Isso pode estar mudando. Na semana passada, a União Europeia e 27 países, incluindo os EUA e a China, concordaram com uma declaração histórica para limitar os riscos e aproveitar os benefícios da inteligência artificial. O impulso para a governança global deu um passo à frente, com promessas sem precedentes de cooperação internacional por parte de aliados e adversários.

Na semana passada, os principais líderes de tecnologia, incluindo Altman, o fundador da DeepMind, Demis Hassabis, e o presidente da Microsoft, Brad Smith, se sentaram em uma mesa circular com Harris, o primeiro-ministro britânico Rishi Sunak e outros líderes globais. Os executivos concordaram em permitir que os especialistas do novo Instituto de Segurança de IA da Grã-Bretanha testassem os modelos quanto a riscos antes de sua liberação para o público. Sunak saudou isso como “a conquista marcante da cúpula”, pois a Grã-Bretanha concorda com duas parcerias, com o recém-anunciado Instituto de Segurança de Inteligência Artificial dos EUA e com Cingapura, para colaborar nos testes.

No entanto, há poucos detalhes sobre como os testes funcionariam - ou como eles diferem dos mandatos da Casa Branca - e os acordos são em grande parte voluntários.

Observadores dizem que o esforço global - com cúpulas de acompanhamento planejadas na Coreia do Sul e na França em seis meses e um ano, respectivamente - permanece em sua relativa infância e está sendo muito ultrapassado pela velocidade de desenvolvimento de ferramentas de IA extremamente poderosas.

Musk, que participou do evento de dois dias, zombou dos líderes governamentais ao compartilhar um desenho animado nas mídias sociais que os mostrava dizendo que a IA era uma ameaça à humanidade e que eles mal podiam esperar para desenvolvê-la primeiro.

As empresas agora controlam a maior parte do financiamento para pesquisa e desenvolvimento tecnológico e científico nos EUA. As empresas americanas foram responsáveis por 73% dos gastos com esse tipo de pesquisa em 2020, de acordo com dados compilados pelo National Center for Science and Engineering Statistics. Essa é uma inversão drástica em relação a 1964, quando o financiamento do governo era responsável por 67% desses gastos.

Essa mudança de paradigma criou um vácuo geopolítico, com novas instituições urgentemente necessárias para permitir que os governos equilibrem as oportunidades apresentadas pela IA com as preocupações de segurança nacional, disse Dario Gil, vice-presidente sênior e diretor de pesquisa da IBM.

Ele disse que a Declaração de Bletchley desta semana, bem como os recentes anúncios de dois institutos governamentais de segurança de IA, um na Grã-Bretanha e outro nos EUA, foram passos em direção a esse objetivo.

No entanto, o Instituto de Segurança de IA dos EUA está sendo criado dentro do Instituto Nacional de Padrões e Tecnologia (NIST, na sigla em inglês), um laboratório federal que é notoriamente subfinanciado e com falta de pessoal. Isso pode representar um impedimento importante para controlar as empresas mais ricas do mundo, que estão competindo entre si para lançar os modelos de IA mais avançados.

As equipes do NIST que trabalham com tecnologia emergente e inteligência artificial responsável têm apenas cerca de 20 funcionários, e os desafios de financiamento da agência são tão significativos que seus laboratórios estão se deteriorando. Os equipamentos foram danificados por problemas de encanamento e vazamentos nos telhados, atrasando projetos e gerando novos custos, de acordo com um relatório das Academias Nacionais de Ciências, Engenharia e Medicina.

“As instalações do NIST não são de classe mundial e, portanto, são um impedimento cada vez maior para atrair e manter a equipe em um ambiente altamente competitivo”, disse o relatório de 2023.

O laboratório enfrenta novas demandas para lidar com IA, segurança cibernética, computação quântica e uma série de tecnologias emergentes, mas o Congresso não ampliou seu orçamento para acompanhar o ritmo do mandato em evolução,

“O NIST é uma agência de um US$ 1 bilhão, mas espera-se que funcione como uma agência de US$ 10 bilhões”, disse Divyansh Kaushik, diretor associado de tecnologias emergentes e segurança nacional da Federação de Cientistas Americanos. “Seus prédios estão caindo aos pedaços, os funcionários estão sobrecarregados, alguns estão liderando várias iniciativas ao mesmo tempo e isso é ruim para eles, é ruim para o sucesso dessas iniciativas.”

Cúpula de Segurança de IA durou dois dia e, reuniu representantes de inúmeros países e empresas de tecnologia Foto: Leon Neal/Pool via REUTERS

O porta-voz do Departamento de Comércio, Charlie Andrews, disse que o NIST alcançou “resultados notáveis dentro de seu orçamento”. “Para dar continuidade a esse progresso, é fundamental que, conforme solicitado pelo presidente Biden, o Congresso destine os fundos necessários para acompanhar o ritmo dessa tecnologia em rápida evolução que apresenta oportunidades substanciais e riscos graves se usada de forma irresponsável”, disse ele.

Os governos e as regiões estão adotando uma abordagem fragmentada, com a União Europeia e a China avançando mais rapidamente em direção a uma regulamentação mais rígida. Buscando cultivar o setor, mesmo alertando sobre os graves riscos da IA, os britânicos adotaram as regras mais leves, chamando sua estratégia de uma abordagem “pró-inovação”. Os EUA - que abrigam os maiores e mais sofisticados desenvolvedores de IA - estão em um meio termo, impondo novas obrigações de segurança aos desenvolvedores dos sistemas de IA mais sofisticados, mas não tanto a ponto de impedir o desenvolvimento e o crescimento.

Ao mesmo tempo, os legisladores americanos estão considerando investir bilhões de dólares no desenvolvimento de IA em meio a preocupações com a concorrência com a China. O líder da maioria no Senado, Charles E. Schumer, que está liderando os esforços no Congresso para desenvolver uma legislação de IA, disse que os legisladores estão discutindo a necessidade de um mínimo de US$ 32 bilhões em financiamento.

Por enquanto, os EUA estão adotando medidas cautelosas. As empresas de tecnologia, disse Paul Scharre, vice-presidente executivo do Center for New American Security, não são necessariamente queridas em Washington, EUA, por republicanos ou democratas. E a recente ordem executiva do presidente Biden marcou uma mudança notável em relação às políticas mais laissez faire das empresas de tecnologia no passado.

“Ouvi algumas pessoas argumentarem que o governo só precisa ficar quieto e confiar nessas empresas e que o governo não tem a experiência técnica necessária para regulamentar essa tecnologia”, disse Scharre. “Acho que isso é uma receita para o desastre. Essas empresas não são responsáveis perante o público em geral. Os governos é que são.”

A inclusão da China na declaração de Bletchley decepcionou alguns dos participantes da cúpula, incluindo Michael Kratsios, ex-diretor de tecnologia dos EUA nomeado por Trump. Kratsios disse que participou de uma reunião de cúpula do G-20 em 2019, na qual autoridades da China concordaram com os princípios de IA, incluindo o compromisso de que “os atores de IA devem respeitar os direitos humanos e os valores democráticos em todo o ciclo de vida do sistema de IA”. No entanto, nos últimos meses, a China implementou novas regras para manter a IA vinculada aos “valores socialistas fundamentais” e em conformidade com o vasto regime de censura à internet do país.

“Assim como em quase tudo que se refere a acordos internacionais, eles violaram flagrantemente [os princípios]”, disse Kratsios, que agora é diretor administrativo da ScaleAI.

Enquanto isso, os defensores da sociedade civil que foram afastados do evento principal em Bletchley Park dizem que os governos estão se movendo muito devagar - talvez perigosamente. Beeban Kidron, uma baronesa britânica que defendeu a segurança das crianças online, alertou que os reguladores correm o risco de cometer os mesmos erros que cometeram ao responder às empresas de tecnologia nas últimas décadas, o que “privatizou a riqueza da tecnologia e terceirizou o custo para a sociedade”.

“É o excepcionalismo tecnológico que representa uma ameaça existencial à humanidade, e não a tecnologia em si”, disse Kidron em um discurso na quinta-feira, 2, em um evento em Londres. /TRADUZIDO POR ALICE LABATE

THE WASHINGTON POST - Enquanto Adolf Hitler lançava o terror sobre a Europa, o governo britânico recrutava seus melhores e mais brilhantes profissionais para um complexo secreto a noroeste de Londres para decifrar os códigos nazistas. Os esforços de Bletchley Park ajudaram a virar a maré da guerra e lançaram as bases para o computador moderno.

Mas, na semana passada, quando países de seis continentes concluíram uma cúpula histórica sobre os riscos da inteligência artificial (IA) no mesmo local histórico dos decifradores de códigos britânicos, eles se depararam com uma realidade moderna e irritante: os governos não estão mais no controle da inovação estratégica, fato que os faz lutar para conter uma das tecnologias mais poderosas que o mundo já conheceu.

A IA já está sendo implantada em campos de batalha e trilhas de campanhas políticas, possuindo a capacidade de alterar o curso das democracias, minar ou apoiar autocracias e ajudar a determinar os resultados das guerras. No entanto, a tecnologia está sendo desenvolvida sob o véu do sigilo corporativo, em grande parte fora da vista dos órgãos reguladores do governo e com o escopo e os recursos de qualquer modelo guardados zelosamente como informações de propriedade.

As empresas de tecnologia que impulsionam essa inovação estão exigindo limites, mas em seus próprios termos. O CEO da OpenAI, Sam Altman, sugeriu que o governo precisa de um novo órgão regulador para lidar com os futuros modelos avançados de IA, mas a empresa continua a avançar, lançando sistemas de IA cada vez mais poderosos. O CEO da Tesla, Elon Musk, assinou uma carta pedindo uma pausa no desenvolvimento de IA, mas ainda está avançando com sua própria empresa de IA, a xAI.

Rápido desenvolvimento da IA vem preocupando autoridades Foto: Aly Song/Reuters

“Eles estão desafiando os governos a tirar as chaves, o que é bastante difícil, pois os governos basicamente deixaram as empresas de tecnologia fazerem o que quiseram durante décadas”, diz Stuart Russell, um renomado professor de ciência da computação da Universidade da Califórnia, EUA. “Mas minha impressão é que o público já está farto.”

A falta de controles governamentais sobre a IA deixou, em grande parte, um setor construído com base no lucro para autopoliciamento dos riscos e das implicações morais de uma tecnologia capaz de desinformar, arruinar reputações e carreiras e até mesmo tirar vidas humanas.

Isso pode estar mudando. Na semana passada, a União Europeia e 27 países, incluindo os EUA e a China, concordaram com uma declaração histórica para limitar os riscos e aproveitar os benefícios da inteligência artificial. O impulso para a governança global deu um passo à frente, com promessas sem precedentes de cooperação internacional por parte de aliados e adversários.

Na semana passada, os principais líderes de tecnologia, incluindo Altman, o fundador da DeepMind, Demis Hassabis, e o presidente da Microsoft, Brad Smith, se sentaram em uma mesa circular com Harris, o primeiro-ministro britânico Rishi Sunak e outros líderes globais. Os executivos concordaram em permitir que os especialistas do novo Instituto de Segurança de IA da Grã-Bretanha testassem os modelos quanto a riscos antes de sua liberação para o público. Sunak saudou isso como “a conquista marcante da cúpula”, pois a Grã-Bretanha concorda com duas parcerias, com o recém-anunciado Instituto de Segurança de Inteligência Artificial dos EUA e com Cingapura, para colaborar nos testes.

No entanto, há poucos detalhes sobre como os testes funcionariam - ou como eles diferem dos mandatos da Casa Branca - e os acordos são em grande parte voluntários.

Observadores dizem que o esforço global - com cúpulas de acompanhamento planejadas na Coreia do Sul e na França em seis meses e um ano, respectivamente - permanece em sua relativa infância e está sendo muito ultrapassado pela velocidade de desenvolvimento de ferramentas de IA extremamente poderosas.

Musk, que participou do evento de dois dias, zombou dos líderes governamentais ao compartilhar um desenho animado nas mídias sociais que os mostrava dizendo que a IA era uma ameaça à humanidade e que eles mal podiam esperar para desenvolvê-la primeiro.

As empresas agora controlam a maior parte do financiamento para pesquisa e desenvolvimento tecnológico e científico nos EUA. As empresas americanas foram responsáveis por 73% dos gastos com esse tipo de pesquisa em 2020, de acordo com dados compilados pelo National Center for Science and Engineering Statistics. Essa é uma inversão drástica em relação a 1964, quando o financiamento do governo era responsável por 67% desses gastos.

Essa mudança de paradigma criou um vácuo geopolítico, com novas instituições urgentemente necessárias para permitir que os governos equilibrem as oportunidades apresentadas pela IA com as preocupações de segurança nacional, disse Dario Gil, vice-presidente sênior e diretor de pesquisa da IBM.

Ele disse que a Declaração de Bletchley desta semana, bem como os recentes anúncios de dois institutos governamentais de segurança de IA, um na Grã-Bretanha e outro nos EUA, foram passos em direção a esse objetivo.

No entanto, o Instituto de Segurança de IA dos EUA está sendo criado dentro do Instituto Nacional de Padrões e Tecnologia (NIST, na sigla em inglês), um laboratório federal que é notoriamente subfinanciado e com falta de pessoal. Isso pode representar um impedimento importante para controlar as empresas mais ricas do mundo, que estão competindo entre si para lançar os modelos de IA mais avançados.

As equipes do NIST que trabalham com tecnologia emergente e inteligência artificial responsável têm apenas cerca de 20 funcionários, e os desafios de financiamento da agência são tão significativos que seus laboratórios estão se deteriorando. Os equipamentos foram danificados por problemas de encanamento e vazamentos nos telhados, atrasando projetos e gerando novos custos, de acordo com um relatório das Academias Nacionais de Ciências, Engenharia e Medicina.

“As instalações do NIST não são de classe mundial e, portanto, são um impedimento cada vez maior para atrair e manter a equipe em um ambiente altamente competitivo”, disse o relatório de 2023.

O laboratório enfrenta novas demandas para lidar com IA, segurança cibernética, computação quântica e uma série de tecnologias emergentes, mas o Congresso não ampliou seu orçamento para acompanhar o ritmo do mandato em evolução,

“O NIST é uma agência de um US$ 1 bilhão, mas espera-se que funcione como uma agência de US$ 10 bilhões”, disse Divyansh Kaushik, diretor associado de tecnologias emergentes e segurança nacional da Federação de Cientistas Americanos. “Seus prédios estão caindo aos pedaços, os funcionários estão sobrecarregados, alguns estão liderando várias iniciativas ao mesmo tempo e isso é ruim para eles, é ruim para o sucesso dessas iniciativas.”

Cúpula de Segurança de IA durou dois dia e, reuniu representantes de inúmeros países e empresas de tecnologia Foto: Leon Neal/Pool via REUTERS

O porta-voz do Departamento de Comércio, Charlie Andrews, disse que o NIST alcançou “resultados notáveis dentro de seu orçamento”. “Para dar continuidade a esse progresso, é fundamental que, conforme solicitado pelo presidente Biden, o Congresso destine os fundos necessários para acompanhar o ritmo dessa tecnologia em rápida evolução que apresenta oportunidades substanciais e riscos graves se usada de forma irresponsável”, disse ele.

Os governos e as regiões estão adotando uma abordagem fragmentada, com a União Europeia e a China avançando mais rapidamente em direção a uma regulamentação mais rígida. Buscando cultivar o setor, mesmo alertando sobre os graves riscos da IA, os britânicos adotaram as regras mais leves, chamando sua estratégia de uma abordagem “pró-inovação”. Os EUA - que abrigam os maiores e mais sofisticados desenvolvedores de IA - estão em um meio termo, impondo novas obrigações de segurança aos desenvolvedores dos sistemas de IA mais sofisticados, mas não tanto a ponto de impedir o desenvolvimento e o crescimento.

Ao mesmo tempo, os legisladores americanos estão considerando investir bilhões de dólares no desenvolvimento de IA em meio a preocupações com a concorrência com a China. O líder da maioria no Senado, Charles E. Schumer, que está liderando os esforços no Congresso para desenvolver uma legislação de IA, disse que os legisladores estão discutindo a necessidade de um mínimo de US$ 32 bilhões em financiamento.

Por enquanto, os EUA estão adotando medidas cautelosas. As empresas de tecnologia, disse Paul Scharre, vice-presidente executivo do Center for New American Security, não são necessariamente queridas em Washington, EUA, por republicanos ou democratas. E a recente ordem executiva do presidente Biden marcou uma mudança notável em relação às políticas mais laissez faire das empresas de tecnologia no passado.

“Ouvi algumas pessoas argumentarem que o governo só precisa ficar quieto e confiar nessas empresas e que o governo não tem a experiência técnica necessária para regulamentar essa tecnologia”, disse Scharre. “Acho que isso é uma receita para o desastre. Essas empresas não são responsáveis perante o público em geral. Os governos é que são.”

A inclusão da China na declaração de Bletchley decepcionou alguns dos participantes da cúpula, incluindo Michael Kratsios, ex-diretor de tecnologia dos EUA nomeado por Trump. Kratsios disse que participou de uma reunião de cúpula do G-20 em 2019, na qual autoridades da China concordaram com os princípios de IA, incluindo o compromisso de que “os atores de IA devem respeitar os direitos humanos e os valores democráticos em todo o ciclo de vida do sistema de IA”. No entanto, nos últimos meses, a China implementou novas regras para manter a IA vinculada aos “valores socialistas fundamentais” e em conformidade com o vasto regime de censura à internet do país.

“Assim como em quase tudo que se refere a acordos internacionais, eles violaram flagrantemente [os princípios]”, disse Kratsios, que agora é diretor administrativo da ScaleAI.

Enquanto isso, os defensores da sociedade civil que foram afastados do evento principal em Bletchley Park dizem que os governos estão se movendo muito devagar - talvez perigosamente. Beeban Kidron, uma baronesa britânica que defendeu a segurança das crianças online, alertou que os reguladores correm o risco de cometer os mesmos erros que cometeram ao responder às empresas de tecnologia nas últimas décadas, o que “privatizou a riqueza da tecnologia e terceirizou o custo para a sociedade”.

“É o excepcionalismo tecnológico que representa uma ameaça existencial à humanidade, e não a tecnologia em si”, disse Kidron em um discurso na quinta-feira, 2, em um evento em Londres. /TRADUZIDO POR ALICE LABATE

THE WASHINGTON POST - Enquanto Adolf Hitler lançava o terror sobre a Europa, o governo britânico recrutava seus melhores e mais brilhantes profissionais para um complexo secreto a noroeste de Londres para decifrar os códigos nazistas. Os esforços de Bletchley Park ajudaram a virar a maré da guerra e lançaram as bases para o computador moderno.

Mas, na semana passada, quando países de seis continentes concluíram uma cúpula histórica sobre os riscos da inteligência artificial (IA) no mesmo local histórico dos decifradores de códigos britânicos, eles se depararam com uma realidade moderna e irritante: os governos não estão mais no controle da inovação estratégica, fato que os faz lutar para conter uma das tecnologias mais poderosas que o mundo já conheceu.

A IA já está sendo implantada em campos de batalha e trilhas de campanhas políticas, possuindo a capacidade de alterar o curso das democracias, minar ou apoiar autocracias e ajudar a determinar os resultados das guerras. No entanto, a tecnologia está sendo desenvolvida sob o véu do sigilo corporativo, em grande parte fora da vista dos órgãos reguladores do governo e com o escopo e os recursos de qualquer modelo guardados zelosamente como informações de propriedade.

As empresas de tecnologia que impulsionam essa inovação estão exigindo limites, mas em seus próprios termos. O CEO da OpenAI, Sam Altman, sugeriu que o governo precisa de um novo órgão regulador para lidar com os futuros modelos avançados de IA, mas a empresa continua a avançar, lançando sistemas de IA cada vez mais poderosos. O CEO da Tesla, Elon Musk, assinou uma carta pedindo uma pausa no desenvolvimento de IA, mas ainda está avançando com sua própria empresa de IA, a xAI.

Rápido desenvolvimento da IA vem preocupando autoridades Foto: Aly Song/Reuters

“Eles estão desafiando os governos a tirar as chaves, o que é bastante difícil, pois os governos basicamente deixaram as empresas de tecnologia fazerem o que quiseram durante décadas”, diz Stuart Russell, um renomado professor de ciência da computação da Universidade da Califórnia, EUA. “Mas minha impressão é que o público já está farto.”

A falta de controles governamentais sobre a IA deixou, em grande parte, um setor construído com base no lucro para autopoliciamento dos riscos e das implicações morais de uma tecnologia capaz de desinformar, arruinar reputações e carreiras e até mesmo tirar vidas humanas.

Isso pode estar mudando. Na semana passada, a União Europeia e 27 países, incluindo os EUA e a China, concordaram com uma declaração histórica para limitar os riscos e aproveitar os benefícios da inteligência artificial. O impulso para a governança global deu um passo à frente, com promessas sem precedentes de cooperação internacional por parte de aliados e adversários.

Na semana passada, os principais líderes de tecnologia, incluindo Altman, o fundador da DeepMind, Demis Hassabis, e o presidente da Microsoft, Brad Smith, se sentaram em uma mesa circular com Harris, o primeiro-ministro britânico Rishi Sunak e outros líderes globais. Os executivos concordaram em permitir que os especialistas do novo Instituto de Segurança de IA da Grã-Bretanha testassem os modelos quanto a riscos antes de sua liberação para o público. Sunak saudou isso como “a conquista marcante da cúpula”, pois a Grã-Bretanha concorda com duas parcerias, com o recém-anunciado Instituto de Segurança de Inteligência Artificial dos EUA e com Cingapura, para colaborar nos testes.

No entanto, há poucos detalhes sobre como os testes funcionariam - ou como eles diferem dos mandatos da Casa Branca - e os acordos são em grande parte voluntários.

Observadores dizem que o esforço global - com cúpulas de acompanhamento planejadas na Coreia do Sul e na França em seis meses e um ano, respectivamente - permanece em sua relativa infância e está sendo muito ultrapassado pela velocidade de desenvolvimento de ferramentas de IA extremamente poderosas.

Musk, que participou do evento de dois dias, zombou dos líderes governamentais ao compartilhar um desenho animado nas mídias sociais que os mostrava dizendo que a IA era uma ameaça à humanidade e que eles mal podiam esperar para desenvolvê-la primeiro.

As empresas agora controlam a maior parte do financiamento para pesquisa e desenvolvimento tecnológico e científico nos EUA. As empresas americanas foram responsáveis por 73% dos gastos com esse tipo de pesquisa em 2020, de acordo com dados compilados pelo National Center for Science and Engineering Statistics. Essa é uma inversão drástica em relação a 1964, quando o financiamento do governo era responsável por 67% desses gastos.

Essa mudança de paradigma criou um vácuo geopolítico, com novas instituições urgentemente necessárias para permitir que os governos equilibrem as oportunidades apresentadas pela IA com as preocupações de segurança nacional, disse Dario Gil, vice-presidente sênior e diretor de pesquisa da IBM.

Ele disse que a Declaração de Bletchley desta semana, bem como os recentes anúncios de dois institutos governamentais de segurança de IA, um na Grã-Bretanha e outro nos EUA, foram passos em direção a esse objetivo.

No entanto, o Instituto de Segurança de IA dos EUA está sendo criado dentro do Instituto Nacional de Padrões e Tecnologia (NIST, na sigla em inglês), um laboratório federal que é notoriamente subfinanciado e com falta de pessoal. Isso pode representar um impedimento importante para controlar as empresas mais ricas do mundo, que estão competindo entre si para lançar os modelos de IA mais avançados.

As equipes do NIST que trabalham com tecnologia emergente e inteligência artificial responsável têm apenas cerca de 20 funcionários, e os desafios de financiamento da agência são tão significativos que seus laboratórios estão se deteriorando. Os equipamentos foram danificados por problemas de encanamento e vazamentos nos telhados, atrasando projetos e gerando novos custos, de acordo com um relatório das Academias Nacionais de Ciências, Engenharia e Medicina.

“As instalações do NIST não são de classe mundial e, portanto, são um impedimento cada vez maior para atrair e manter a equipe em um ambiente altamente competitivo”, disse o relatório de 2023.

O laboratório enfrenta novas demandas para lidar com IA, segurança cibernética, computação quântica e uma série de tecnologias emergentes, mas o Congresso não ampliou seu orçamento para acompanhar o ritmo do mandato em evolução,

“O NIST é uma agência de um US$ 1 bilhão, mas espera-se que funcione como uma agência de US$ 10 bilhões”, disse Divyansh Kaushik, diretor associado de tecnologias emergentes e segurança nacional da Federação de Cientistas Americanos. “Seus prédios estão caindo aos pedaços, os funcionários estão sobrecarregados, alguns estão liderando várias iniciativas ao mesmo tempo e isso é ruim para eles, é ruim para o sucesso dessas iniciativas.”

Cúpula de Segurança de IA durou dois dia e, reuniu representantes de inúmeros países e empresas de tecnologia Foto: Leon Neal/Pool via REUTERS

O porta-voz do Departamento de Comércio, Charlie Andrews, disse que o NIST alcançou “resultados notáveis dentro de seu orçamento”. “Para dar continuidade a esse progresso, é fundamental que, conforme solicitado pelo presidente Biden, o Congresso destine os fundos necessários para acompanhar o ritmo dessa tecnologia em rápida evolução que apresenta oportunidades substanciais e riscos graves se usada de forma irresponsável”, disse ele.

Os governos e as regiões estão adotando uma abordagem fragmentada, com a União Europeia e a China avançando mais rapidamente em direção a uma regulamentação mais rígida. Buscando cultivar o setor, mesmo alertando sobre os graves riscos da IA, os britânicos adotaram as regras mais leves, chamando sua estratégia de uma abordagem “pró-inovação”. Os EUA - que abrigam os maiores e mais sofisticados desenvolvedores de IA - estão em um meio termo, impondo novas obrigações de segurança aos desenvolvedores dos sistemas de IA mais sofisticados, mas não tanto a ponto de impedir o desenvolvimento e o crescimento.

Ao mesmo tempo, os legisladores americanos estão considerando investir bilhões de dólares no desenvolvimento de IA em meio a preocupações com a concorrência com a China. O líder da maioria no Senado, Charles E. Schumer, que está liderando os esforços no Congresso para desenvolver uma legislação de IA, disse que os legisladores estão discutindo a necessidade de um mínimo de US$ 32 bilhões em financiamento.

Por enquanto, os EUA estão adotando medidas cautelosas. As empresas de tecnologia, disse Paul Scharre, vice-presidente executivo do Center for New American Security, não são necessariamente queridas em Washington, EUA, por republicanos ou democratas. E a recente ordem executiva do presidente Biden marcou uma mudança notável em relação às políticas mais laissez faire das empresas de tecnologia no passado.

“Ouvi algumas pessoas argumentarem que o governo só precisa ficar quieto e confiar nessas empresas e que o governo não tem a experiência técnica necessária para regulamentar essa tecnologia”, disse Scharre. “Acho que isso é uma receita para o desastre. Essas empresas não são responsáveis perante o público em geral. Os governos é que são.”

A inclusão da China na declaração de Bletchley decepcionou alguns dos participantes da cúpula, incluindo Michael Kratsios, ex-diretor de tecnologia dos EUA nomeado por Trump. Kratsios disse que participou de uma reunião de cúpula do G-20 em 2019, na qual autoridades da China concordaram com os princípios de IA, incluindo o compromisso de que “os atores de IA devem respeitar os direitos humanos e os valores democráticos em todo o ciclo de vida do sistema de IA”. No entanto, nos últimos meses, a China implementou novas regras para manter a IA vinculada aos “valores socialistas fundamentais” e em conformidade com o vasto regime de censura à internet do país.

“Assim como em quase tudo que se refere a acordos internacionais, eles violaram flagrantemente [os princípios]”, disse Kratsios, que agora é diretor administrativo da ScaleAI.

Enquanto isso, os defensores da sociedade civil que foram afastados do evento principal em Bletchley Park dizem que os governos estão se movendo muito devagar - talvez perigosamente. Beeban Kidron, uma baronesa britânica que defendeu a segurança das crianças online, alertou que os reguladores correm o risco de cometer os mesmos erros que cometeram ao responder às empresas de tecnologia nas últimas décadas, o que “privatizou a riqueza da tecnologia e terceirizou o custo para a sociedade”.

“É o excepcionalismo tecnológico que representa uma ameaça existencial à humanidade, e não a tecnologia em si”, disse Kidron em um discurso na quinta-feira, 2, em um evento em Londres. /TRADUZIDO POR ALICE LABATE

Atualizamos nossa política de cookies

Ao utilizar nossos serviços, você aceita a política de monitoramento de cookies.