Reconhecimento facial banido e ChatGPT sob a mira: veja principais pontos da lei europeia de IA

Com aprovação esperada para o fim deste ano, projeto prevê categorizar serviços e produtos em diferentes níveis de risco à sociedade

PUBLICIDADE

Foto do author Guilherme Guerra
Atualização:

BERLIM - A inteligência artificial (IA) ficou “pop”. Hoje, é possível encontrar essa tecnologia nos mais diversos serviços e produtos digitais, como algoritmos de recomendação de redes sociais e serviços de streaming, diagnósticos de saúde, cidades inteligentes, veículos autônomos e, claro, o ChatGPT, lançado em novembro do ano passado.

Na Europa, todas essas tecnologias devem ficar sujeitas à nova Lei de IA, cuja sanção final é esperada para o final de 2023 e com vigência para o ano que vem – uma versão inicial do projeto foi aprovada no Parlamento Europeu na última quarta-feira, 14.

PUBLICIDADE

A legislação determina um conjunto de regras de funcionamento das ferramentas de automação, aprendizado de máquina e de modelos amplos de linguagem. Além disso, é um marco mundial inédito, já que nenhum outro país ou bloco se aventurou por regulamentação desse tipo.

Ainda que não seja a versão definitiva, o texto aprovado pelo Parlamento Europeu promove alguns nortes sobre como vai ser a legislação - o que deve servir de inspiração para projeto semelhante discutido no Senado brasileiro.

Abaixo veja os principais pontos da Lei de Inteligência Artificial da União Europeia.

Publicidade

Europa está regulamentando a inteligência artificial Foto: Gabby Jones / WashingtonPost

Abordagem baseada em risco

O principal ponto da Lei de IA da Europa está em separar diferentes modelos de inteligência artificial no que se chama de “abordagem baseada em risco”.

Nesse modelo, cada sistema de IA é colocado sob uma das categorias previstas pelas autoridades: baixo risco à sociedade (como games), risco limitado (como chatbots), alto risco (como cirurgias assistidas por robôs e veículos autônomos) e inaceitável (como sistemas biométricos de vigilância).

A partir dessa classificação, as companhias têm uma série de obrigações de privacidade e transparência para cumprir, seguindo a categoria em que seus serviços e produtos foram colocados.

Banimento de reconhecimento facial nas ruas

Ferramentas que utilizam IA para vigilância biométrica, reconhecimento de emoções e policiamento preditivo estão totalmente proibidas na União Europeia. Categorização biométrica a partir de dados sensíveis, como gênero e raça, também estão proibidos.

Exceções incluem a busca por crianças desaparecidas, evitar ameaça de terrorismo ou detecção de criminosos de crimes graves. Esses usos, dizem o projeto, devem ser autorizados por decisão judicial ou por um órgão independente.

Publicidade

Ainda, ferramentas de “score social”, pelas quais indivíduos são classificados a partir de comportamentos sociais ou econômicos, também são consideradas inaceitáveis. A prática é comum na China.

Serviços de segurança, saúde, RH e meio ambiente são de alto risco

A legislação considera uma “inteligência artificial de alto risco” aquelas que façam uma ameaça à saúde das pessoas, à segurança, viole direitos fundamentais ou o meio ambiente.

Aqui, os exemplos são vários: carros autônomos, notas em provas, robôs em cirurgias, ferramenta de ranqueamento de currículos em processos seletivos, score de crédito para obter empréstimo, verificação de autenticidade em documentos de viagens e mais.

Além disso, sistemas criados para influenciar eleitores e eleições em mídias sociais (com mais de 45 milhões de usuários) entraram na lista.

IA gerativa ganha obrigações

Sistemas de IA gerativas, como ChatGPT, receberam uma série de obrigações a cumprir com o projeto aprovado pelo Parlamento. Entre elas, as empresas devem apresentar às autoridades europeias o banco de dados dessas IAs antes de ir ao mercado.

Publicidade

Além disso, esses sistemas devem apresentar um texto avisando que o conteúdo é gerado por uma máquina (evitando disseminação de desinformação, esperam os políticos europeus) e detalhar em relatórios os materiais protegidos por direitos autorais que foram utilizados para treinar esses sistemas.

Sandbox torna-se obrigatório

Cada país-membro da União Europeia deverá ter um ambiente de testes (“sandbox”) para que as startups e outras empresas possam testar seus serviços e produtos antes de ir ao mercado. A expectativa dos eurodeputados é que essa solução torne as companhias de tecnologia locais mais competitivas.

Agência europeia de IA

A legislação prevê a criação de uma agência reguladora de inteligência artificial (EU AI Office), cuja tarefa seria supervisionar a implementação das regras no bloco europeu.

*O repórter está em Berlim como parte do Internationale Journalisten-Programme (IJP), programa de intercâmbio para jornalistas da América Latina

Comentários

Os comentários são exclusivos para assinantes do Estadão.