PUBLICIDADE

Primeira lei para regular a IA na Europa está pronta para aprovação; veja o que acontece agora

Legisladores da UE devem votar para que a lei entre vigor ainda em 2024

PUBLICIDADE

Por Kelvin Chan (AP)
Atualização:

A União Europeia deve dar a aprovação final à uma lei de inteligência artificial (IA) do bloco de 27 nações na quarta-feira, 13, colocando as regras no caminho certo para entrar em vigor ainda este ano.

Os legisladores do Parlamento Europeu estão prontos para votar a favor da Lei de Inteligência Artificial cinco anos após sua primeira proposta. Espera-se que a Lei de IA funcione como um sinal global para outros governos que estão lutando para regulamentar a tecnologia em rápido desenvolvimento.

PUBLICIDADE

“A Lei de IA levou o futuro da IA para uma direção centrada no ser humano, em uma direção em que os seres humanos estão no controle da tecnologia e onde ela - a tecnologia - nos ajuda a alavancar novas descobertas, o crescimento econômico, o progresso social e a desbloquear o potencial humano”, disse Dragos Tudorache, legislador romeno que foi um dos líderes das negociações do Parlamento sobre o projeto de lei.

Em geral, as grandes empresas de tecnologia apoiaram a necessidade de regulamentar a IA e, ao mesmo tempo, fizeram lobby para garantir que quaisquer regras que surgissem funcionassem a seu favor. O CEO da OpenAI, Sam Altman, causou um pequeno alvoroço no ano passado quando sugeriu que o fabricante do ChatGPT poderia sair da Europa se não conseguisse cumprir a Lei de IA - antes de voltar atrás e dizer que não havia planos de sair.

Legisladores do Parlamento Europeu votam Lei de Inteligência Artificial cinco anos após sua primeira proposta em Estrasburgo, na França  Foto: Jean-Francois Badias/AP Photo

Aqui está uma prévia do primeiro conjunto abrangente de regras de IA do mundo:

Como funciona a Lei da IA?

Como muitas regulamentações da UE, a Lei de IA foi inicialmente planejada para atuar como legislação de segurança do consumidor, adotando uma “abordagem baseada em risco” para produtos ou serviços que usam inteligência artificial.

Quanto mais arriscado for um aplicativo de IA, maior será o escrutínio que ele enfrentará. Os sistemas de baixo risco, como sistemas de recomendação de conteúdo ou filtros de spam, enfrentarão apenas regras leves, como a revelação de que são alimentados por IA. A UE espera que a maioria dos sistemas de IA se enquadre nessa categoria.

Publicidade

Os usos de alto risco da IA, como em dispositivos médicos ou infraestrutura crítica, como redes de água ou elétricas, enfrentam requisitos mais rigorosos, como o uso de dados de alta qualidade e o fornecimento de informações claras aos usuários.

Alguns usos de IA são proibidos por serem considerados um risco inaceitável, como sistemas de pontuação social que determinam como as pessoas se comportam, alguns tipos de policiamento preditivo e sistemas de reconhecimento de emoções em escolas e locais de trabalho.

Outros usos proibidos incluem a varredura de rostos em público pela polícia usando sistemas remotos de “identificação biométrica” acionados por IA, exceto para crimes graves como sequestro ou terrorismo.

E quanto à IA generativa?

Os primeiros esboços da lei se concentravam em sistemas de IA que realizavam tarefas estritamente limitadas, como escanear currículos e pedidos de emprego. O aumento surpreendente dos modelos de IA de uso geral, exemplificado pelo ChatGPT da OpenAI, fez com que os formuladores de políticas da UE se esforçassem para acompanhá-los.

PUBLICIDADE

Eles acrescentaram disposições para os chamados modelos de IA generativa, a tecnologia subjacente aos sistemas de chatbot de IA que podem produzir respostas, imagens e outros recursos exclusivos e aparentemente realistas.

Os desenvolvedores de modelos de IA de uso geral - desde startups europeias até a OpenAI e o Google - terão que fornecer um resumo detalhado do texto, das imagens, dos vídeos e de outros dados na internet que são usados para treinar os sistemas, além de seguir a lei de direitos autorais da UE.

Imagens, vídeos ou áudios deepfake gerados por IA de pessoas, lugares ou eventos existentes devem ser rotulados como manipulados artificialmente.

Publicidade

Há um escrutínio extra para os maiores e mais poderosos modelos de IA que representam “riscos sistêmicos”, que incluem o GPT-4 da OpenAI - seu sistema mais avançado - e o Gemini do Google.

O aumento surpreendente dos modelos de IA de uso geral, exemplificado pelo ChatGPT da OpenAI, fez com que os formuladores de políticas da UE se esforçassem para acompanhá-los Foto: Michael Dwyer/AP Photo

A UE diz estar preocupada com o fato de que esses poderosos sistemas de IA possam “causar acidentes graves ou ser mal utilizados para ataques cibernéticos de longo alcance”. Eles também temem que a IA generativa possa disseminar “preconceitos prejudiciais” em muitos aplicativos, afetando muitas pessoas.

As empresas que fornecem esses sistemas terão que avaliar e mitigar os riscos, relatar quaisquer incidentes graves, como mau funcionamento que cause a morte de alguém ou danos graves à saúde ou à propriedade, implementar medidas de segurança cibernética e divulgar a quantidade de energia que seus modelos usam.

As regras da Europa influenciam o restante do mundo?

Bruxelas sugeriu pela primeira vez regulamentações de IA em 2019, assumindo um papel global já conhecido na intensificação do escrutínio de setores emergentes, enquanto outros governos se esforçam para acompanhar o ritmo.

Nos Estados Unidos, o presidente Joe Biden assinou uma ordem executiva abrangente sobre IA em outubro, que deverá ser apoiada por legislação e acordos globais. Enquanto isso, legisladores em pelo menos sete estados dos EUA estão trabalhando em sua própria legislação de IA.

O presidente chinês Xi Jinping propôs sua Iniciativa Global de Governança de IA e as autoridades emitiram “medidas provisórias” para gerenciar a IA generativa, que se aplica a texto, imagens, áudio, vídeo e outros conteúdos gerados para pessoas dentro da China.

Outros países, do Brasil ao Japão, bem como grupos globais, como as Nações Unidas e o Grupo dos Sete países industrializados, estão se movimentando para elaborar proteções de IA.

Publicidade

O que acontece agora?

Espera-se que a Lei de IA se torne oficialmente uma lei em maio ou junho, após algumas formalidades finais, incluindo uma bênção dos países membros da UE. As disposições começarão a entrar em vigor em etapas, com os países obrigados a suspender sistemas de IA proibidos seis meses após as regras entrarem nos livros de leis.

As regras para sistemas de IA de uso geral, como chatbots, começarão a ser aplicadas um ano após a lei entrar em vigor. Em meados de 2026, o conjunto completo de regulamentos, incluindo requisitos para sistemas de alto risco, estará em vigor.

No que diz respeito à aplicação, cada país da UE criará seu próprio órgão de fiscalização de IA, onde os cidadãos poderão registrar uma reclamação se acharem que foram vítimas de uma violação das regras. Enquanto isso, Bruxelas criará um Escritório de IA encarregado de aplicar e supervisionar a lei para sistemas de IA de uso geral.

As violações da Lei de IA podem gerar multas de até US$ 38 milhões, ou 7% da receita global de uma empresa.

Este conteúdo foi traduzido com o auxílio de ferramentas de Inteligência Artificial e revisado por nossa equipe editorial. Saiba mais em nossa Política de IA.

Comentários

Os comentários são exclusivos para assinantes do Estadão.