Europa chega a acordo sobre regras de inteligência artificial e fica perto de lei histórica


O acordo sobre a Lei de I.A. solidifica uma das primeiras tentativas abrangentes do mundo de limitar o uso da inteligência artificial

Por Adam Satariano
Atualização:

THE NEW YORK TIMES — Os formuladores de políticas da União Europeia (UE) concordaram nesta sexta-feira, 8, com uma nova lei abrangente para regulamentar a inteligência artificial (IA), uma das primeiras tentativas abrangentes do mundo para limitar o uso de uma tecnologia em rápida evolução que tem implicações sociais e econômicas abrangentes.

A lei, denominada EU AI Act (Lei de IA da UE), estabelece uma nova referência global para os países que buscam aproveitar os possíveis benefícios da tecnologia, ao mesmo tempo em que tentam se proteger contra seus possíveis riscos, como a automação de empregos, a disseminação de informações errôneas online e o perigo para a segurança nacional. A lei ainda precisa passar por algumas etapas finais para aprovação, mas o acordo político significa que suas principais linhas gerais foram definidas.

Os formuladores de políticas europeus se concentraram nos usos mais arriscados da IA por empresas e governos, incluindo aqueles para a aplicação da lei e a operação de serviços essenciais, como água e energia. Os fabricantes dos maiores sistemas de IA de uso geral, como os que alimentam o chatbot ChatGPT, enfrentariam novas exigências de transparência. Os chatbots e os softwares que criam imagens manipuladas, como os “deepfakes”, teriam que deixar claro que o que as pessoas estavam vendo era gerado pela IA, de acordo com as autoridades da UE e com as versões anteriores da lei.

continua após a publicidade
A Europa se posicionou como pioneira, entendendo a importância de seu papel como definidora de padrões globais. de seu papel como definidora de padrões globais

Thierry Breton, comissário da União Europeia

O uso de software de reconhecimento facial pela polícia e pelos governos seria restrito, exceto por determinadas isenções de segurança e segurança nacional. As empresas que violassem as regulamentações poderiam enfrentar multas de até 7% das vendas globais.

“A Europa se posicionou como pioneira, entendendo a importância de seu papel como definidora de padrões globais. de seu papel como definidora de padrões globais”, disse Thierry Breton, o comissário europeu que ajudou a negociar o acordo, em um comunicado.

continua após a publicidade
O francês Thierry Breton é comissário da União Europeia Foto: Yves Herman/Reuters - 8/2/2022

No entanto, mesmo quando a lei foi aclamada como um avanço regulatório, ainda restavam dúvidas sobre sua eficácia. Muitos aspectos da política não deveriam entrar em vigor antes de 12 a 24 meses, um período de tempo considerável para o desenvolvimento da IA. E até o último minuto das negociações, os formuladores de políticas e os países estavam discutindo sobre a linguagem e como equilibrar a promoção da inovação com a necessidade de proteção contra possíveis danos.

O acordo alcançado em Bruxelas levou três dias de negociações, incluindo uma sessão inicial de 22 horas que começou na tarde de quarta-feira e se estendeu até quinta-feira. O acordo final não foi divulgado imediatamente, pois esperava-se que as negociações continuassem nos bastidores para concluir os detalhes técnicos, o que poderia atrasar a aprovação final. As votações devem ser realizadas no Parlamento e no Conselho Europeu, que é composto por representantes dos 27 países da união.

continua após a publicidade

Regulamentação da inteligência artificial ganha força

A regulamentação da IA ganhou urgência após o lançamento do ChatGPT no ano passado, que se tornou uma sensação mundial ao demonstrar os recursos avançados da IA. Nos Estados Unidos, o governo Biden emitiu recentemente uma ordem executiva focada, em parte, nos efeitos da IA sobre a segurança nacional. A Grã-Bretanha, o Japão e outros países adotaram uma abordagem mais discreta, enquanto a China impôs algumas restrições ao uso de dados e algoritmos de recomendação.

O que está em jogo são trilhões de dólares em valor estimado, já que se prevê que a IA remodelará a economia global. “O domínio tecnológico precede o domínio econômico e o domínio político”, disse Jean-Noël Barrot, ministro digital da França, esta semana.

continua após a publicidade

A Europa tem sido uma das mais avançadas na regulamentação da IA, tendo começado a trabalhar no que se tornaria a Lei de IA em 2018. Nos últimos anos, os líderes da UE tentaram trazer um novo nível de supervisão para a tecnologia, semelhante à regulamentação dos setores de saúde ou bancário. A região já promulgou leis de longo alcance relacionadas à privacidade de dados, concorrência e moderação de conteúdo.

Um primeiro rascunho da Lei de IA foi lançado em 2021. Mas os legisladores se viram reescrevendo a lei à medida que os avanços tecnológicos surgiam. A versão inicial não fazia menção a modelos de IA de uso geral, como os que alimentam o ChatGPT.

continua após a publicidade

Os legisladores concordaram com o que chamaram de “abordagem baseada em risco” para regulamentar a IA, em que um conjunto definido de aplicativos enfrentaria maior supervisão e restrições. As empresas que fabricam ferramentas de IA que apresentam maior potencial de dano aos indivíduos e à sociedade, como em contratações e educação, precisariam fornecer aos órgãos reguladores provas de avaliações de risco, detalhamento dos dados usados para treinar os sistemas e garantias de que o software não causou danos, como a perpetuação de preconceitos raciais. A supervisão humana também seria necessária para criar e implantar os sistemas.

Algumas práticas, como a coleta indiscriminada de imagens da Internet para criar um banco de dados de reconhecimento facial, seriam totalmente proibidas.

O debate na União Europeia foi polêmico, um sinal de como a IA confundiu os legisladores. As autoridades da UE estavam divididas quanto ao grau de regulamentação dos sistemas de IA mais novos, com receio de prejudicar as startups europeias que tentam alcançar as empresas americanas, como Google e OpenAI.

continua após a publicidade

A lei acrescentou exigências para que os fabricantes dos maiores modelos de IA divulguem informações sobre como seus sistemas funcionam e avaliem o “risco sistêmico”, disse Breton.

As novas regulamentações serão observadas de perto em todo o mundo. Elas afetarão não apenas os principais desenvolvedores de IA, como Google, Meta, Microsoft e OpenAI, mas também outras empresas que deverão usar a tecnologia em áreas como educação, saúde e bancos. Os governos também estão se voltando mais para a IA na justiça criminal e na alocação de benefícios públicos.

Sem uma fiscalização rigorosa, esse acordo não terá nenhum significado

Kris Shrishak, membro sênior do Conselho Irlandês para Liberdades Civis

A aplicação da lei ainda não está clara. A Lei de IA envolverá órgãos reguladores de 27 países e exigirá a contratação de novos especialistas em um momento em que os orçamentos governamentais estão apertados. É provável que haja contestações legais à medida que as empresas testem as novas regras nos tribunais. A legislação anterior da UE, incluindo a lei de privacidade digital de referência conhecida como Regulamento Geral de Proteção de Dados (GDPR), foi criticada por ser aplicada de forma desigual.

“A proeza regulatória da UE está sendo questionada”, disse Kris Shrishak, membro sênior do Conselho Irlandês para Liberdades Civis, que aconselhou os legisladores europeus sobre a Lei de IA. “Sem uma fiscalização rigorosa, esse acordo não terá nenhum significado.”

Este conteúdo foi traduzido com o auxílio de ferramentas de Inteligência Artificial e revisado por nossa equipe editorial. Saiba mais em nossa Política de IA.

THE NEW YORK TIMES — Os formuladores de políticas da União Europeia (UE) concordaram nesta sexta-feira, 8, com uma nova lei abrangente para regulamentar a inteligência artificial (IA), uma das primeiras tentativas abrangentes do mundo para limitar o uso de uma tecnologia em rápida evolução que tem implicações sociais e econômicas abrangentes.

A lei, denominada EU AI Act (Lei de IA da UE), estabelece uma nova referência global para os países que buscam aproveitar os possíveis benefícios da tecnologia, ao mesmo tempo em que tentam se proteger contra seus possíveis riscos, como a automação de empregos, a disseminação de informações errôneas online e o perigo para a segurança nacional. A lei ainda precisa passar por algumas etapas finais para aprovação, mas o acordo político significa que suas principais linhas gerais foram definidas.

Os formuladores de políticas europeus se concentraram nos usos mais arriscados da IA por empresas e governos, incluindo aqueles para a aplicação da lei e a operação de serviços essenciais, como água e energia. Os fabricantes dos maiores sistemas de IA de uso geral, como os que alimentam o chatbot ChatGPT, enfrentariam novas exigências de transparência. Os chatbots e os softwares que criam imagens manipuladas, como os “deepfakes”, teriam que deixar claro que o que as pessoas estavam vendo era gerado pela IA, de acordo com as autoridades da UE e com as versões anteriores da lei.

A Europa se posicionou como pioneira, entendendo a importância de seu papel como definidora de padrões globais. de seu papel como definidora de padrões globais

Thierry Breton, comissário da União Europeia

O uso de software de reconhecimento facial pela polícia e pelos governos seria restrito, exceto por determinadas isenções de segurança e segurança nacional. As empresas que violassem as regulamentações poderiam enfrentar multas de até 7% das vendas globais.

“A Europa se posicionou como pioneira, entendendo a importância de seu papel como definidora de padrões globais. de seu papel como definidora de padrões globais”, disse Thierry Breton, o comissário europeu que ajudou a negociar o acordo, em um comunicado.

O francês Thierry Breton é comissário da União Europeia Foto: Yves Herman/Reuters - 8/2/2022

No entanto, mesmo quando a lei foi aclamada como um avanço regulatório, ainda restavam dúvidas sobre sua eficácia. Muitos aspectos da política não deveriam entrar em vigor antes de 12 a 24 meses, um período de tempo considerável para o desenvolvimento da IA. E até o último minuto das negociações, os formuladores de políticas e os países estavam discutindo sobre a linguagem e como equilibrar a promoção da inovação com a necessidade de proteção contra possíveis danos.

O acordo alcançado em Bruxelas levou três dias de negociações, incluindo uma sessão inicial de 22 horas que começou na tarde de quarta-feira e se estendeu até quinta-feira. O acordo final não foi divulgado imediatamente, pois esperava-se que as negociações continuassem nos bastidores para concluir os detalhes técnicos, o que poderia atrasar a aprovação final. As votações devem ser realizadas no Parlamento e no Conselho Europeu, que é composto por representantes dos 27 países da união.

Regulamentação da inteligência artificial ganha força

A regulamentação da IA ganhou urgência após o lançamento do ChatGPT no ano passado, que se tornou uma sensação mundial ao demonstrar os recursos avançados da IA. Nos Estados Unidos, o governo Biden emitiu recentemente uma ordem executiva focada, em parte, nos efeitos da IA sobre a segurança nacional. A Grã-Bretanha, o Japão e outros países adotaram uma abordagem mais discreta, enquanto a China impôs algumas restrições ao uso de dados e algoritmos de recomendação.

O que está em jogo são trilhões de dólares em valor estimado, já que se prevê que a IA remodelará a economia global. “O domínio tecnológico precede o domínio econômico e o domínio político”, disse Jean-Noël Barrot, ministro digital da França, esta semana.

A Europa tem sido uma das mais avançadas na regulamentação da IA, tendo começado a trabalhar no que se tornaria a Lei de IA em 2018. Nos últimos anos, os líderes da UE tentaram trazer um novo nível de supervisão para a tecnologia, semelhante à regulamentação dos setores de saúde ou bancário. A região já promulgou leis de longo alcance relacionadas à privacidade de dados, concorrência e moderação de conteúdo.

Um primeiro rascunho da Lei de IA foi lançado em 2021. Mas os legisladores se viram reescrevendo a lei à medida que os avanços tecnológicos surgiam. A versão inicial não fazia menção a modelos de IA de uso geral, como os que alimentam o ChatGPT.

Os legisladores concordaram com o que chamaram de “abordagem baseada em risco” para regulamentar a IA, em que um conjunto definido de aplicativos enfrentaria maior supervisão e restrições. As empresas que fabricam ferramentas de IA que apresentam maior potencial de dano aos indivíduos e à sociedade, como em contratações e educação, precisariam fornecer aos órgãos reguladores provas de avaliações de risco, detalhamento dos dados usados para treinar os sistemas e garantias de que o software não causou danos, como a perpetuação de preconceitos raciais. A supervisão humana também seria necessária para criar e implantar os sistemas.

Algumas práticas, como a coleta indiscriminada de imagens da Internet para criar um banco de dados de reconhecimento facial, seriam totalmente proibidas.

O debate na União Europeia foi polêmico, um sinal de como a IA confundiu os legisladores. As autoridades da UE estavam divididas quanto ao grau de regulamentação dos sistemas de IA mais novos, com receio de prejudicar as startups europeias que tentam alcançar as empresas americanas, como Google e OpenAI.

A lei acrescentou exigências para que os fabricantes dos maiores modelos de IA divulguem informações sobre como seus sistemas funcionam e avaliem o “risco sistêmico”, disse Breton.

As novas regulamentações serão observadas de perto em todo o mundo. Elas afetarão não apenas os principais desenvolvedores de IA, como Google, Meta, Microsoft e OpenAI, mas também outras empresas que deverão usar a tecnologia em áreas como educação, saúde e bancos. Os governos também estão se voltando mais para a IA na justiça criminal e na alocação de benefícios públicos.

Sem uma fiscalização rigorosa, esse acordo não terá nenhum significado

Kris Shrishak, membro sênior do Conselho Irlandês para Liberdades Civis

A aplicação da lei ainda não está clara. A Lei de IA envolverá órgãos reguladores de 27 países e exigirá a contratação de novos especialistas em um momento em que os orçamentos governamentais estão apertados. É provável que haja contestações legais à medida que as empresas testem as novas regras nos tribunais. A legislação anterior da UE, incluindo a lei de privacidade digital de referência conhecida como Regulamento Geral de Proteção de Dados (GDPR), foi criticada por ser aplicada de forma desigual.

“A proeza regulatória da UE está sendo questionada”, disse Kris Shrishak, membro sênior do Conselho Irlandês para Liberdades Civis, que aconselhou os legisladores europeus sobre a Lei de IA. “Sem uma fiscalização rigorosa, esse acordo não terá nenhum significado.”

Este conteúdo foi traduzido com o auxílio de ferramentas de Inteligência Artificial e revisado por nossa equipe editorial. Saiba mais em nossa Política de IA.

THE NEW YORK TIMES — Os formuladores de políticas da União Europeia (UE) concordaram nesta sexta-feira, 8, com uma nova lei abrangente para regulamentar a inteligência artificial (IA), uma das primeiras tentativas abrangentes do mundo para limitar o uso de uma tecnologia em rápida evolução que tem implicações sociais e econômicas abrangentes.

A lei, denominada EU AI Act (Lei de IA da UE), estabelece uma nova referência global para os países que buscam aproveitar os possíveis benefícios da tecnologia, ao mesmo tempo em que tentam se proteger contra seus possíveis riscos, como a automação de empregos, a disseminação de informações errôneas online e o perigo para a segurança nacional. A lei ainda precisa passar por algumas etapas finais para aprovação, mas o acordo político significa que suas principais linhas gerais foram definidas.

Os formuladores de políticas europeus se concentraram nos usos mais arriscados da IA por empresas e governos, incluindo aqueles para a aplicação da lei e a operação de serviços essenciais, como água e energia. Os fabricantes dos maiores sistemas de IA de uso geral, como os que alimentam o chatbot ChatGPT, enfrentariam novas exigências de transparência. Os chatbots e os softwares que criam imagens manipuladas, como os “deepfakes”, teriam que deixar claro que o que as pessoas estavam vendo era gerado pela IA, de acordo com as autoridades da UE e com as versões anteriores da lei.

A Europa se posicionou como pioneira, entendendo a importância de seu papel como definidora de padrões globais. de seu papel como definidora de padrões globais

Thierry Breton, comissário da União Europeia

O uso de software de reconhecimento facial pela polícia e pelos governos seria restrito, exceto por determinadas isenções de segurança e segurança nacional. As empresas que violassem as regulamentações poderiam enfrentar multas de até 7% das vendas globais.

“A Europa se posicionou como pioneira, entendendo a importância de seu papel como definidora de padrões globais. de seu papel como definidora de padrões globais”, disse Thierry Breton, o comissário europeu que ajudou a negociar o acordo, em um comunicado.

O francês Thierry Breton é comissário da União Europeia Foto: Yves Herman/Reuters - 8/2/2022

No entanto, mesmo quando a lei foi aclamada como um avanço regulatório, ainda restavam dúvidas sobre sua eficácia. Muitos aspectos da política não deveriam entrar em vigor antes de 12 a 24 meses, um período de tempo considerável para o desenvolvimento da IA. E até o último minuto das negociações, os formuladores de políticas e os países estavam discutindo sobre a linguagem e como equilibrar a promoção da inovação com a necessidade de proteção contra possíveis danos.

O acordo alcançado em Bruxelas levou três dias de negociações, incluindo uma sessão inicial de 22 horas que começou na tarde de quarta-feira e se estendeu até quinta-feira. O acordo final não foi divulgado imediatamente, pois esperava-se que as negociações continuassem nos bastidores para concluir os detalhes técnicos, o que poderia atrasar a aprovação final. As votações devem ser realizadas no Parlamento e no Conselho Europeu, que é composto por representantes dos 27 países da união.

Regulamentação da inteligência artificial ganha força

A regulamentação da IA ganhou urgência após o lançamento do ChatGPT no ano passado, que se tornou uma sensação mundial ao demonstrar os recursos avançados da IA. Nos Estados Unidos, o governo Biden emitiu recentemente uma ordem executiva focada, em parte, nos efeitos da IA sobre a segurança nacional. A Grã-Bretanha, o Japão e outros países adotaram uma abordagem mais discreta, enquanto a China impôs algumas restrições ao uso de dados e algoritmos de recomendação.

O que está em jogo são trilhões de dólares em valor estimado, já que se prevê que a IA remodelará a economia global. “O domínio tecnológico precede o domínio econômico e o domínio político”, disse Jean-Noël Barrot, ministro digital da França, esta semana.

A Europa tem sido uma das mais avançadas na regulamentação da IA, tendo começado a trabalhar no que se tornaria a Lei de IA em 2018. Nos últimos anos, os líderes da UE tentaram trazer um novo nível de supervisão para a tecnologia, semelhante à regulamentação dos setores de saúde ou bancário. A região já promulgou leis de longo alcance relacionadas à privacidade de dados, concorrência e moderação de conteúdo.

Um primeiro rascunho da Lei de IA foi lançado em 2021. Mas os legisladores se viram reescrevendo a lei à medida que os avanços tecnológicos surgiam. A versão inicial não fazia menção a modelos de IA de uso geral, como os que alimentam o ChatGPT.

Os legisladores concordaram com o que chamaram de “abordagem baseada em risco” para regulamentar a IA, em que um conjunto definido de aplicativos enfrentaria maior supervisão e restrições. As empresas que fabricam ferramentas de IA que apresentam maior potencial de dano aos indivíduos e à sociedade, como em contratações e educação, precisariam fornecer aos órgãos reguladores provas de avaliações de risco, detalhamento dos dados usados para treinar os sistemas e garantias de que o software não causou danos, como a perpetuação de preconceitos raciais. A supervisão humana também seria necessária para criar e implantar os sistemas.

Algumas práticas, como a coleta indiscriminada de imagens da Internet para criar um banco de dados de reconhecimento facial, seriam totalmente proibidas.

O debate na União Europeia foi polêmico, um sinal de como a IA confundiu os legisladores. As autoridades da UE estavam divididas quanto ao grau de regulamentação dos sistemas de IA mais novos, com receio de prejudicar as startups europeias que tentam alcançar as empresas americanas, como Google e OpenAI.

A lei acrescentou exigências para que os fabricantes dos maiores modelos de IA divulguem informações sobre como seus sistemas funcionam e avaliem o “risco sistêmico”, disse Breton.

As novas regulamentações serão observadas de perto em todo o mundo. Elas afetarão não apenas os principais desenvolvedores de IA, como Google, Meta, Microsoft e OpenAI, mas também outras empresas que deverão usar a tecnologia em áreas como educação, saúde e bancos. Os governos também estão se voltando mais para a IA na justiça criminal e na alocação de benefícios públicos.

Sem uma fiscalização rigorosa, esse acordo não terá nenhum significado

Kris Shrishak, membro sênior do Conselho Irlandês para Liberdades Civis

A aplicação da lei ainda não está clara. A Lei de IA envolverá órgãos reguladores de 27 países e exigirá a contratação de novos especialistas em um momento em que os orçamentos governamentais estão apertados. É provável que haja contestações legais à medida que as empresas testem as novas regras nos tribunais. A legislação anterior da UE, incluindo a lei de privacidade digital de referência conhecida como Regulamento Geral de Proteção de Dados (GDPR), foi criticada por ser aplicada de forma desigual.

“A proeza regulatória da UE está sendo questionada”, disse Kris Shrishak, membro sênior do Conselho Irlandês para Liberdades Civis, que aconselhou os legisladores europeus sobre a Lei de IA. “Sem uma fiscalização rigorosa, esse acordo não terá nenhum significado.”

Este conteúdo foi traduzido com o auxílio de ferramentas de Inteligência Artificial e revisado por nossa equipe editorial. Saiba mais em nossa Política de IA.

Atualizamos nossa política de cookies

Ao utilizar nossos serviços, você aceita a política de monitoramento de cookies.