Europa aperta cerco contra inteligência artificial e pode influenciar o Brasil


Parlamento Europeu aprovou primeiro marco mundial para regulamentar a nova tecnologia, banindo reconhecimento facial em espaços públicos e ditando regras de funcionamento

Por Guilherme Guerra

BERLIM - Com a promessa de mitigar os riscos da inteligência artificial (IA) à sociedade, o Parlamento Europeu aprovou na última quarta-feira, 14, o “EU AI Act” (Lei de IA da União Europeia, na tradução), marco regulatório da IA e o primeiro do tipo no mundo. A expectativa é que a decisão gere o “efeito Bruxelas” e incentive outros países a adotar regulações próprias, como o Brasil – cujo projeto do tipo voltou ao debate no Congresso neste ano.

Em discussão desde 2020, o texto de lei europeu determina um conjunto de regras de funcionamento das ferramentas de automação, aprendizado de máquina e de modelos amplos de linguagem. Isso inclui de algoritmos de redes sociais e serviços de streaming a infraestrutura urbana, como redes elétricas. Também estão contemplados carros autônomos e ferramentas como o ChatGPT.

O popular chatbot da OpenAI acelerou o incômodo dos países do bloco em relação à tecnologia. Em abril passado, a Itália decidiu banir o ChatGPT do país. Segundo a autoridade de proteção de dados do país, o robô coletou dados de usuários sem o consentimento destes, além de expor menores de idade a materiais impróprios – um acordo foi firmado três semanas depois para reestabelecer o serviço. Poucos dias depois, a autoridade de dados da Espanha emitiu um comunicado dizendo que estava investigando possíveis descumprimentos do ChatGPT.

continua após a publicidade

Para tentar dar conta do rápido avanço da tecnologia, o projeto de regulamentação da IA pode entrar em vigência já em 2024 – até lá, o texto deve seguir o rito do triálogo da União Europeia, passando pela Comissão Europeia e Conselho Europeu e ser aprovado por cada um dos 27 países-membros do bloco. Trata-se, portanto, de rascunho inicial, mas a peça aprovada na última quarta-feira aponta nortes sobre o futuro da IA no continente.

O principal ponto do EU AI Act está em separar diferentes modelos de inteligência artificial no que os eurodeputados chamam de “abordagem baseada em risco”. Nesse modelo, cada sistema de IA é colocado sob uma das categorias previstas pelas autoridades: baixo risco à sociedade (como games), risco limitado (como chatbots), alto risco (como veículos autônomos) e inaceitável (como sistemas biométricos de vigilância). A partir dessa classificação, as companhias têm uma série de obrigações de privacidade e transparência para cumprir, seguindo a categoria em que seus serviços e produtos foram colocados.

continua após a publicidade

Em maio, os eurodeputados incluíram de última hora um adendo dedicado às IAs de propósito geral, como o próprio ChatGPT. Pelo projeto, essas ferramentas vão ter de apresentar um texto avisando que o conteúdo é gerado por uma máquina (evitando disseminação de desinformação, esperam os políticos europeus) e detalhar em relatórios os materiais protegidos por direitos autorais que foram utilizados para treinar esses sistemas.

O eurodeputado romeno Dragoș Tudorache, correlator do EU AI Act junto com o italiano Brando Benifei, afirma que o projeto reúne consensos de diversos setores.

“Passamos quase toda a pandemia da covid-19 em audiências, conversando com especialistas de todos os setores possíveis”, disse em entrevista ao Estadão a uma semana da aprovação do projeto no Parlamento. “Essa não é apenas mais uma tecnologia, e não é apenas mais uma transformação. A IA é diferente, porque afeta tudo.”

continua após a publicidade
Eurodeputado romeno Dragoș Tudorache é o correlator da Lei de IA da União Europeia Foto: DIV

Para a eurodeputada alemã Svenja Hahn, o projeto é uma defesa dos valores da União Europeia. “Conhecemos como é o reconhecimento facial para vigilância da China, e esse uso da tecnologia não tem lugar em uma democracia liberal”, diz ela.

Apesar do avanço, o EU AI Act aprovado pelo Parlamento permite que ferramentas de IA possam ser utilizadas nas fronteiras dos países. Esse tipo de tecnologia afeta diretamente migrantes e outras pessoas em deslocamento, o que é visto como um retrocesso por organizações de direitos humanos.

continua após a publicidade

“A União Europeia está criando uma regulação de IA de duas categorias, com os migrantes recebendo menos proteções que o resto da sociedade”, diz em nota a consultora Sarah Chander, da organização European Digital Rights (EDRi). “O Parlamento Europeu perdeu uma oportunidade crucial de ampliar a estrutura de proteções para os danos causados pela IA.”

Europa não quer frear inovação e pretende disputar com EUA e China

Outro objetivo do EU AI Act, diz o correlator Tudorache, é promover a inovação e competitividade das startups europeias, sem que sejam prejudicadas pela regulamentação. “Minha preocupação é com as empresas menores, para as quais o custo da conformidade é muito importante”, diz.

continua após a publicidade

O político afirma que o projeto aprovado obriga a cada Estado-membro criar sandboxes, de modo que cada startup possa testar serviços e produtos antes de ir ao mercado. Segundo ele, isso permite reduzir custos e contar com o suporte dos governos locais no ajuste de conformidade. Outro ponto destacado é que vão ser as empresas que irão redigir a normatização das regras da legislação, “o que é uma abordagem de baixo para cima”, diz.

“A Lei de IA pode dificultar a inovação na Europa”

Daniel Abbou, diretor geral da KI Bundesverband

Esse ponto de vista, no entanto, não é defendido por todos. “A Lei de IA pode dificultar a inovação na Europa”, critica Daniel Abbou, diretor geral da KI Bundesverband, associação federal da Alemanha que reúne as startups de IA do país, com mais de 400 associados.

continua após a publicidade

Embora se diga a favor da regulamentação, ele afirma que o projeto vai adicionar novas burocracias às empresas de tecnologia locais, que têm menos estrutura financeira e jurídica para bancar adaptações em seus serviços e produtos a curto prazo. Além disso, a associação pede que algumas mudanças sejam implementadas até a aprovação final do texto, como a retirada de serviços de análise automática de currículos em startups de Recursos Humanos da categoria de “alto risco à sociedade”.

Segundo Abbou, se os triálogos não acatarem essas preocupações, isso pode prejudicar a competição entre as startups e empresas de tecnologia europeias com as gigantes dos EUA e da China.

“Vamos ser honestos. As companhias americanas estão criando seus modelos sem regulamentação e com muito dinheiro. Agora que esses modelos são líderes no mundo, essas empresas dizem que querem regulamentação”, diz Abbou. “A Lei de IA tem o risco de fortalecer ainda mais a fatia de mercado dessas firmas.”

Parlamento Europeu é o braço legislativo da União Europeia Foto: Vincent Kessler/Reuters

Nos últimos meses, as Big Techs americanas se mostraram a favor de alguma regulamentação. Publicamente, os presidentes executivos da Microsoft, do Google e da OpenAI se pronunciaram sobre a necessidade de um conjunto de regras para o mercado.

Essa realidade, no entanto, não é o que aponta um dossiê do Corporate Europe Observatory (COE), organização civil que fiscaliza a influência do lobby sobre a União Europeia. Segundo documento publicado pelo grupo em fevereiro passado, o Google, a Microsoft e a Meta (ex-Facebook) realizaram dezenas de reuniões com políticos envolvidos na legislação, com intuito de tentar evitar uma regulamentação das IAs de propósito geral – justamente a área considerada mais promissora em termos de mercado.

Tudorache afirma que é essencial ouvir todas as partes envolvidas com o impacto da IA – e isso significa sentar à mesa com Big Techs, startups, sindicatos, academia, sociedade civil e cidadãos.

“Temos que ouvir todos aqueles que têm interesse nessa transformação”, diz o romeno.

‘Efeito Bruxelas’

Aprovada a legislação no final deste ano, os eurodeputados esperam que aconteça o que chamam de “efeito Bruxelas”: outros países seguindo a decisão da União Europeia. Foi o que aconteceu com a GDPR, legislação de proteção de dados aprovada em 2016 na UE e que, no Brasil, inspiraria a Lei Geral de Proteção de Dados (LGPD), de 2018.

O mesmo parece ocorrer em relação à IA. A Câmara dos Deputados iniciou em 2020 uma discussão sobre regulamentação dessa tecnologia, com aprovação em setembro do ano seguinte – desde então, empacou no Congresso.

No entanto, a chegada do ChatGPT e a discussão do tema na Europa parecem ter apressado as autoridades brasileiras. O Senado Federal aprecia o tema pelo PL 2.338/2023, que determina um conjunto de medidas e multas de até R$ 50 milhões por infração (ou 2% do faturamento da companhia).

“Algumas exigências da Lei de IA da UE podem ser transpostas para cá. Pode ser que o efeito Bruxelas traga alguns desses dispositivos, mas já existe uma convergência entre os projetos em tramitação no Brasil e a lei europeia”, diz Bruna Martins, gerente global de campanhas na Digital Action. “É inevitável que essas questões viajem”, acrescenta, citando entendimentos similares entre as duas regiões quanto a direitos digitais.

Na proposta do Senado, a versão brasileira também cria categorias de risco, com regras de transparência para os sistemas considerados danosos – como classificação de crédito, identificação de pessoas, veículos autônomos, gestão de infraestruturas críticas (trânsito e redes de abastecimento de água e elétrica), entre outros exemplos dados no PL.

Ainda, o texto no Senado restringe o uso de reconhecimento facial em espaços públicos por câmeras instaladas pelas secretarias de segurança pública dos Estados, bem como veda os ditos modelos de “ranqueamento social”, em que cada cidadão recebe uma pontuação de acordo com seu comportamento nas redes sociais com o objetivo de assegurar ou não acesso a recursos públicos – formato utilizado na China.

O debate da regulamentação da inteligência artificial no Brasil precisa andar com urgência

Mariana Valente, professora da Universidade de St. Gallen

Para Mariana Valente, professora na Universidade de St. Gallen, na Suíça, e diretora da organização brasileira InternetLab, a Lei de IA na Europa “mostra que a tecnologia pode ser regulada e os caminhos podem ser acertados de forma dialogada e democrática”, diz.

Já o projeto em discussão no Senado, com o qual a professora colaborou como membro da comissão de juristas, se inspira na Lei de IA da Europa e, ao mesmo tempo, bebe da tradição jurídica brasileira ao se basear em direitos individuais inalienáveis dos cidadãos.

“O caminho deve ser um debate que leve em conta tanto o aprendizado internacional quanto o que temos de contexto local”, aponta Mariana. “Mas esse debate precisa andar com urgência.”

*O repórter está em Berlim como parte do Internationale Journalisten-Programme (IJP), programa de intercâmbio para jornalistas da América Latina

BERLIM - Com a promessa de mitigar os riscos da inteligência artificial (IA) à sociedade, o Parlamento Europeu aprovou na última quarta-feira, 14, o “EU AI Act” (Lei de IA da União Europeia, na tradução), marco regulatório da IA e o primeiro do tipo no mundo. A expectativa é que a decisão gere o “efeito Bruxelas” e incentive outros países a adotar regulações próprias, como o Brasil – cujo projeto do tipo voltou ao debate no Congresso neste ano.

Em discussão desde 2020, o texto de lei europeu determina um conjunto de regras de funcionamento das ferramentas de automação, aprendizado de máquina e de modelos amplos de linguagem. Isso inclui de algoritmos de redes sociais e serviços de streaming a infraestrutura urbana, como redes elétricas. Também estão contemplados carros autônomos e ferramentas como o ChatGPT.

O popular chatbot da OpenAI acelerou o incômodo dos países do bloco em relação à tecnologia. Em abril passado, a Itália decidiu banir o ChatGPT do país. Segundo a autoridade de proteção de dados do país, o robô coletou dados de usuários sem o consentimento destes, além de expor menores de idade a materiais impróprios – um acordo foi firmado três semanas depois para reestabelecer o serviço. Poucos dias depois, a autoridade de dados da Espanha emitiu um comunicado dizendo que estava investigando possíveis descumprimentos do ChatGPT.

Para tentar dar conta do rápido avanço da tecnologia, o projeto de regulamentação da IA pode entrar em vigência já em 2024 – até lá, o texto deve seguir o rito do triálogo da União Europeia, passando pela Comissão Europeia e Conselho Europeu e ser aprovado por cada um dos 27 países-membros do bloco. Trata-se, portanto, de rascunho inicial, mas a peça aprovada na última quarta-feira aponta nortes sobre o futuro da IA no continente.

O principal ponto do EU AI Act está em separar diferentes modelos de inteligência artificial no que os eurodeputados chamam de “abordagem baseada em risco”. Nesse modelo, cada sistema de IA é colocado sob uma das categorias previstas pelas autoridades: baixo risco à sociedade (como games), risco limitado (como chatbots), alto risco (como veículos autônomos) e inaceitável (como sistemas biométricos de vigilância). A partir dessa classificação, as companhias têm uma série de obrigações de privacidade e transparência para cumprir, seguindo a categoria em que seus serviços e produtos foram colocados.

Em maio, os eurodeputados incluíram de última hora um adendo dedicado às IAs de propósito geral, como o próprio ChatGPT. Pelo projeto, essas ferramentas vão ter de apresentar um texto avisando que o conteúdo é gerado por uma máquina (evitando disseminação de desinformação, esperam os políticos europeus) e detalhar em relatórios os materiais protegidos por direitos autorais que foram utilizados para treinar esses sistemas.

O eurodeputado romeno Dragoș Tudorache, correlator do EU AI Act junto com o italiano Brando Benifei, afirma que o projeto reúne consensos de diversos setores.

“Passamos quase toda a pandemia da covid-19 em audiências, conversando com especialistas de todos os setores possíveis”, disse em entrevista ao Estadão a uma semana da aprovação do projeto no Parlamento. “Essa não é apenas mais uma tecnologia, e não é apenas mais uma transformação. A IA é diferente, porque afeta tudo.”

Eurodeputado romeno Dragoș Tudorache é o correlator da Lei de IA da União Europeia Foto: DIV

Para a eurodeputada alemã Svenja Hahn, o projeto é uma defesa dos valores da União Europeia. “Conhecemos como é o reconhecimento facial para vigilância da China, e esse uso da tecnologia não tem lugar em uma democracia liberal”, diz ela.

Apesar do avanço, o EU AI Act aprovado pelo Parlamento permite que ferramentas de IA possam ser utilizadas nas fronteiras dos países. Esse tipo de tecnologia afeta diretamente migrantes e outras pessoas em deslocamento, o que é visto como um retrocesso por organizações de direitos humanos.

“A União Europeia está criando uma regulação de IA de duas categorias, com os migrantes recebendo menos proteções que o resto da sociedade”, diz em nota a consultora Sarah Chander, da organização European Digital Rights (EDRi). “O Parlamento Europeu perdeu uma oportunidade crucial de ampliar a estrutura de proteções para os danos causados pela IA.”

Europa não quer frear inovação e pretende disputar com EUA e China

Outro objetivo do EU AI Act, diz o correlator Tudorache, é promover a inovação e competitividade das startups europeias, sem que sejam prejudicadas pela regulamentação. “Minha preocupação é com as empresas menores, para as quais o custo da conformidade é muito importante”, diz.

O político afirma que o projeto aprovado obriga a cada Estado-membro criar sandboxes, de modo que cada startup possa testar serviços e produtos antes de ir ao mercado. Segundo ele, isso permite reduzir custos e contar com o suporte dos governos locais no ajuste de conformidade. Outro ponto destacado é que vão ser as empresas que irão redigir a normatização das regras da legislação, “o que é uma abordagem de baixo para cima”, diz.

“A Lei de IA pode dificultar a inovação na Europa”

Daniel Abbou, diretor geral da KI Bundesverband

Esse ponto de vista, no entanto, não é defendido por todos. “A Lei de IA pode dificultar a inovação na Europa”, critica Daniel Abbou, diretor geral da KI Bundesverband, associação federal da Alemanha que reúne as startups de IA do país, com mais de 400 associados.

Embora se diga a favor da regulamentação, ele afirma que o projeto vai adicionar novas burocracias às empresas de tecnologia locais, que têm menos estrutura financeira e jurídica para bancar adaptações em seus serviços e produtos a curto prazo. Além disso, a associação pede que algumas mudanças sejam implementadas até a aprovação final do texto, como a retirada de serviços de análise automática de currículos em startups de Recursos Humanos da categoria de “alto risco à sociedade”.

Segundo Abbou, se os triálogos não acatarem essas preocupações, isso pode prejudicar a competição entre as startups e empresas de tecnologia europeias com as gigantes dos EUA e da China.

“Vamos ser honestos. As companhias americanas estão criando seus modelos sem regulamentação e com muito dinheiro. Agora que esses modelos são líderes no mundo, essas empresas dizem que querem regulamentação”, diz Abbou. “A Lei de IA tem o risco de fortalecer ainda mais a fatia de mercado dessas firmas.”

Parlamento Europeu é o braço legislativo da União Europeia Foto: Vincent Kessler/Reuters

Nos últimos meses, as Big Techs americanas se mostraram a favor de alguma regulamentação. Publicamente, os presidentes executivos da Microsoft, do Google e da OpenAI se pronunciaram sobre a necessidade de um conjunto de regras para o mercado.

Essa realidade, no entanto, não é o que aponta um dossiê do Corporate Europe Observatory (COE), organização civil que fiscaliza a influência do lobby sobre a União Europeia. Segundo documento publicado pelo grupo em fevereiro passado, o Google, a Microsoft e a Meta (ex-Facebook) realizaram dezenas de reuniões com políticos envolvidos na legislação, com intuito de tentar evitar uma regulamentação das IAs de propósito geral – justamente a área considerada mais promissora em termos de mercado.

Tudorache afirma que é essencial ouvir todas as partes envolvidas com o impacto da IA – e isso significa sentar à mesa com Big Techs, startups, sindicatos, academia, sociedade civil e cidadãos.

“Temos que ouvir todos aqueles que têm interesse nessa transformação”, diz o romeno.

‘Efeito Bruxelas’

Aprovada a legislação no final deste ano, os eurodeputados esperam que aconteça o que chamam de “efeito Bruxelas”: outros países seguindo a decisão da União Europeia. Foi o que aconteceu com a GDPR, legislação de proteção de dados aprovada em 2016 na UE e que, no Brasil, inspiraria a Lei Geral de Proteção de Dados (LGPD), de 2018.

O mesmo parece ocorrer em relação à IA. A Câmara dos Deputados iniciou em 2020 uma discussão sobre regulamentação dessa tecnologia, com aprovação em setembro do ano seguinte – desde então, empacou no Congresso.

No entanto, a chegada do ChatGPT e a discussão do tema na Europa parecem ter apressado as autoridades brasileiras. O Senado Federal aprecia o tema pelo PL 2.338/2023, que determina um conjunto de medidas e multas de até R$ 50 milhões por infração (ou 2% do faturamento da companhia).

“Algumas exigências da Lei de IA da UE podem ser transpostas para cá. Pode ser que o efeito Bruxelas traga alguns desses dispositivos, mas já existe uma convergência entre os projetos em tramitação no Brasil e a lei europeia”, diz Bruna Martins, gerente global de campanhas na Digital Action. “É inevitável que essas questões viajem”, acrescenta, citando entendimentos similares entre as duas regiões quanto a direitos digitais.

Na proposta do Senado, a versão brasileira também cria categorias de risco, com regras de transparência para os sistemas considerados danosos – como classificação de crédito, identificação de pessoas, veículos autônomos, gestão de infraestruturas críticas (trânsito e redes de abastecimento de água e elétrica), entre outros exemplos dados no PL.

Ainda, o texto no Senado restringe o uso de reconhecimento facial em espaços públicos por câmeras instaladas pelas secretarias de segurança pública dos Estados, bem como veda os ditos modelos de “ranqueamento social”, em que cada cidadão recebe uma pontuação de acordo com seu comportamento nas redes sociais com o objetivo de assegurar ou não acesso a recursos públicos – formato utilizado na China.

O debate da regulamentação da inteligência artificial no Brasil precisa andar com urgência

Mariana Valente, professora da Universidade de St. Gallen

Para Mariana Valente, professora na Universidade de St. Gallen, na Suíça, e diretora da organização brasileira InternetLab, a Lei de IA na Europa “mostra que a tecnologia pode ser regulada e os caminhos podem ser acertados de forma dialogada e democrática”, diz.

Já o projeto em discussão no Senado, com o qual a professora colaborou como membro da comissão de juristas, se inspira na Lei de IA da Europa e, ao mesmo tempo, bebe da tradição jurídica brasileira ao se basear em direitos individuais inalienáveis dos cidadãos.

“O caminho deve ser um debate que leve em conta tanto o aprendizado internacional quanto o que temos de contexto local”, aponta Mariana. “Mas esse debate precisa andar com urgência.”

*O repórter está em Berlim como parte do Internationale Journalisten-Programme (IJP), programa de intercâmbio para jornalistas da América Latina

BERLIM - Com a promessa de mitigar os riscos da inteligência artificial (IA) à sociedade, o Parlamento Europeu aprovou na última quarta-feira, 14, o “EU AI Act” (Lei de IA da União Europeia, na tradução), marco regulatório da IA e o primeiro do tipo no mundo. A expectativa é que a decisão gere o “efeito Bruxelas” e incentive outros países a adotar regulações próprias, como o Brasil – cujo projeto do tipo voltou ao debate no Congresso neste ano.

Em discussão desde 2020, o texto de lei europeu determina um conjunto de regras de funcionamento das ferramentas de automação, aprendizado de máquina e de modelos amplos de linguagem. Isso inclui de algoritmos de redes sociais e serviços de streaming a infraestrutura urbana, como redes elétricas. Também estão contemplados carros autônomos e ferramentas como o ChatGPT.

O popular chatbot da OpenAI acelerou o incômodo dos países do bloco em relação à tecnologia. Em abril passado, a Itália decidiu banir o ChatGPT do país. Segundo a autoridade de proteção de dados do país, o robô coletou dados de usuários sem o consentimento destes, além de expor menores de idade a materiais impróprios – um acordo foi firmado três semanas depois para reestabelecer o serviço. Poucos dias depois, a autoridade de dados da Espanha emitiu um comunicado dizendo que estava investigando possíveis descumprimentos do ChatGPT.

Para tentar dar conta do rápido avanço da tecnologia, o projeto de regulamentação da IA pode entrar em vigência já em 2024 – até lá, o texto deve seguir o rito do triálogo da União Europeia, passando pela Comissão Europeia e Conselho Europeu e ser aprovado por cada um dos 27 países-membros do bloco. Trata-se, portanto, de rascunho inicial, mas a peça aprovada na última quarta-feira aponta nortes sobre o futuro da IA no continente.

O principal ponto do EU AI Act está em separar diferentes modelos de inteligência artificial no que os eurodeputados chamam de “abordagem baseada em risco”. Nesse modelo, cada sistema de IA é colocado sob uma das categorias previstas pelas autoridades: baixo risco à sociedade (como games), risco limitado (como chatbots), alto risco (como veículos autônomos) e inaceitável (como sistemas biométricos de vigilância). A partir dessa classificação, as companhias têm uma série de obrigações de privacidade e transparência para cumprir, seguindo a categoria em que seus serviços e produtos foram colocados.

Em maio, os eurodeputados incluíram de última hora um adendo dedicado às IAs de propósito geral, como o próprio ChatGPT. Pelo projeto, essas ferramentas vão ter de apresentar um texto avisando que o conteúdo é gerado por uma máquina (evitando disseminação de desinformação, esperam os políticos europeus) e detalhar em relatórios os materiais protegidos por direitos autorais que foram utilizados para treinar esses sistemas.

O eurodeputado romeno Dragoș Tudorache, correlator do EU AI Act junto com o italiano Brando Benifei, afirma que o projeto reúne consensos de diversos setores.

“Passamos quase toda a pandemia da covid-19 em audiências, conversando com especialistas de todos os setores possíveis”, disse em entrevista ao Estadão a uma semana da aprovação do projeto no Parlamento. “Essa não é apenas mais uma tecnologia, e não é apenas mais uma transformação. A IA é diferente, porque afeta tudo.”

Eurodeputado romeno Dragoș Tudorache é o correlator da Lei de IA da União Europeia Foto: DIV

Para a eurodeputada alemã Svenja Hahn, o projeto é uma defesa dos valores da União Europeia. “Conhecemos como é o reconhecimento facial para vigilância da China, e esse uso da tecnologia não tem lugar em uma democracia liberal”, diz ela.

Apesar do avanço, o EU AI Act aprovado pelo Parlamento permite que ferramentas de IA possam ser utilizadas nas fronteiras dos países. Esse tipo de tecnologia afeta diretamente migrantes e outras pessoas em deslocamento, o que é visto como um retrocesso por organizações de direitos humanos.

“A União Europeia está criando uma regulação de IA de duas categorias, com os migrantes recebendo menos proteções que o resto da sociedade”, diz em nota a consultora Sarah Chander, da organização European Digital Rights (EDRi). “O Parlamento Europeu perdeu uma oportunidade crucial de ampliar a estrutura de proteções para os danos causados pela IA.”

Europa não quer frear inovação e pretende disputar com EUA e China

Outro objetivo do EU AI Act, diz o correlator Tudorache, é promover a inovação e competitividade das startups europeias, sem que sejam prejudicadas pela regulamentação. “Minha preocupação é com as empresas menores, para as quais o custo da conformidade é muito importante”, diz.

O político afirma que o projeto aprovado obriga a cada Estado-membro criar sandboxes, de modo que cada startup possa testar serviços e produtos antes de ir ao mercado. Segundo ele, isso permite reduzir custos e contar com o suporte dos governos locais no ajuste de conformidade. Outro ponto destacado é que vão ser as empresas que irão redigir a normatização das regras da legislação, “o que é uma abordagem de baixo para cima”, diz.

“A Lei de IA pode dificultar a inovação na Europa”

Daniel Abbou, diretor geral da KI Bundesverband

Esse ponto de vista, no entanto, não é defendido por todos. “A Lei de IA pode dificultar a inovação na Europa”, critica Daniel Abbou, diretor geral da KI Bundesverband, associação federal da Alemanha que reúne as startups de IA do país, com mais de 400 associados.

Embora se diga a favor da regulamentação, ele afirma que o projeto vai adicionar novas burocracias às empresas de tecnologia locais, que têm menos estrutura financeira e jurídica para bancar adaptações em seus serviços e produtos a curto prazo. Além disso, a associação pede que algumas mudanças sejam implementadas até a aprovação final do texto, como a retirada de serviços de análise automática de currículos em startups de Recursos Humanos da categoria de “alto risco à sociedade”.

Segundo Abbou, se os triálogos não acatarem essas preocupações, isso pode prejudicar a competição entre as startups e empresas de tecnologia europeias com as gigantes dos EUA e da China.

“Vamos ser honestos. As companhias americanas estão criando seus modelos sem regulamentação e com muito dinheiro. Agora que esses modelos são líderes no mundo, essas empresas dizem que querem regulamentação”, diz Abbou. “A Lei de IA tem o risco de fortalecer ainda mais a fatia de mercado dessas firmas.”

Parlamento Europeu é o braço legislativo da União Europeia Foto: Vincent Kessler/Reuters

Nos últimos meses, as Big Techs americanas se mostraram a favor de alguma regulamentação. Publicamente, os presidentes executivos da Microsoft, do Google e da OpenAI se pronunciaram sobre a necessidade de um conjunto de regras para o mercado.

Essa realidade, no entanto, não é o que aponta um dossiê do Corporate Europe Observatory (COE), organização civil que fiscaliza a influência do lobby sobre a União Europeia. Segundo documento publicado pelo grupo em fevereiro passado, o Google, a Microsoft e a Meta (ex-Facebook) realizaram dezenas de reuniões com políticos envolvidos na legislação, com intuito de tentar evitar uma regulamentação das IAs de propósito geral – justamente a área considerada mais promissora em termos de mercado.

Tudorache afirma que é essencial ouvir todas as partes envolvidas com o impacto da IA – e isso significa sentar à mesa com Big Techs, startups, sindicatos, academia, sociedade civil e cidadãos.

“Temos que ouvir todos aqueles que têm interesse nessa transformação”, diz o romeno.

‘Efeito Bruxelas’

Aprovada a legislação no final deste ano, os eurodeputados esperam que aconteça o que chamam de “efeito Bruxelas”: outros países seguindo a decisão da União Europeia. Foi o que aconteceu com a GDPR, legislação de proteção de dados aprovada em 2016 na UE e que, no Brasil, inspiraria a Lei Geral de Proteção de Dados (LGPD), de 2018.

O mesmo parece ocorrer em relação à IA. A Câmara dos Deputados iniciou em 2020 uma discussão sobre regulamentação dessa tecnologia, com aprovação em setembro do ano seguinte – desde então, empacou no Congresso.

No entanto, a chegada do ChatGPT e a discussão do tema na Europa parecem ter apressado as autoridades brasileiras. O Senado Federal aprecia o tema pelo PL 2.338/2023, que determina um conjunto de medidas e multas de até R$ 50 milhões por infração (ou 2% do faturamento da companhia).

“Algumas exigências da Lei de IA da UE podem ser transpostas para cá. Pode ser que o efeito Bruxelas traga alguns desses dispositivos, mas já existe uma convergência entre os projetos em tramitação no Brasil e a lei europeia”, diz Bruna Martins, gerente global de campanhas na Digital Action. “É inevitável que essas questões viajem”, acrescenta, citando entendimentos similares entre as duas regiões quanto a direitos digitais.

Na proposta do Senado, a versão brasileira também cria categorias de risco, com regras de transparência para os sistemas considerados danosos – como classificação de crédito, identificação de pessoas, veículos autônomos, gestão de infraestruturas críticas (trânsito e redes de abastecimento de água e elétrica), entre outros exemplos dados no PL.

Ainda, o texto no Senado restringe o uso de reconhecimento facial em espaços públicos por câmeras instaladas pelas secretarias de segurança pública dos Estados, bem como veda os ditos modelos de “ranqueamento social”, em que cada cidadão recebe uma pontuação de acordo com seu comportamento nas redes sociais com o objetivo de assegurar ou não acesso a recursos públicos – formato utilizado na China.

O debate da regulamentação da inteligência artificial no Brasil precisa andar com urgência

Mariana Valente, professora da Universidade de St. Gallen

Para Mariana Valente, professora na Universidade de St. Gallen, na Suíça, e diretora da organização brasileira InternetLab, a Lei de IA na Europa “mostra que a tecnologia pode ser regulada e os caminhos podem ser acertados de forma dialogada e democrática”, diz.

Já o projeto em discussão no Senado, com o qual a professora colaborou como membro da comissão de juristas, se inspira na Lei de IA da Europa e, ao mesmo tempo, bebe da tradição jurídica brasileira ao se basear em direitos individuais inalienáveis dos cidadãos.

“O caminho deve ser um debate que leve em conta tanto o aprendizado internacional quanto o que temos de contexto local”, aponta Mariana. “Mas esse debate precisa andar com urgência.”

*O repórter está em Berlim como parte do Internationale Journalisten-Programme (IJP), programa de intercâmbio para jornalistas da América Latina

Atualizamos nossa política de cookies

Ao utilizar nossos serviços, você aceita a política de monitoramento de cookies.