Opinião|Panorama para a regulamentação da IA no País


Aqui, o desenvolvimento de legislação inspirada pelo AI Act pode catalisar avanços significativos e promover frutífero diálogo nacional

Por Newton De Lucca e Selma Carloto

A despeito da controvérsia existente sobre a expressão “inteligência artificial” – para o neurocientista Miguel Nicolelis, por exemplo, ela não seria nem inteligência nem artificial –, o fato é que tal designação, criada por John McCarthy, em 1956, tornou-se popularmente consagrada. Esse campo da ciência da computação é dedicado ao desenvolvimento de sistemas e algoritmos que realizam tarefas tradicionalmente próprias da inteligência humana. Avanços significativos levaram ao desenvolvimento do aprendizado de máquina, uma subárea da inteligência artificial (IA), definida em 1959 por Arthur Samuel como o campo de estudo que dá aos computadores a capacidade de aprender sem programação explícita. Essa habilidade de aprender a partir de dados durante o treinamento é um marco na evolução da IA possibilitando decisões autônomas baseadas em padrões.

No entanto, os riscos de vieses representam uma preocupação constante, sobretudo em razão de vieses históricos que podem perpetuar práticas discriminatórias preexistentes. Além disso, a falta de amostras representativas durante o treinamento pode induzir a vieses discriminatórios, assim como podemos identificar tipos de vieses que resultem em discriminação algorítmica e sérios riscos aos direitos humanos e fundamentais. Em resposta a essas preocupações, foi criado em abril de 2019 o Grupo de Peritos de Alto Nível (GPAN) sobre IA, um marco importante no desenvolvimento de diretrizes para uma IA confiável. O GPAN apresentou as Orientações éticas para uma IA de confiança, destinadas a orientar políticas e práticas no setor, com o objetivo de garantir que a IA seja desenvolvida de forma responsável e ética, em alinhamento com os direitos fundamentais e a dignidade humana.

O Regulamento de Inteligência Artificial da União Europeia (AI Act) foi aprovado pelo Parlamento Europeu em março de 2024, destacando-se como um marco legislativo pioneiro que influencia não apenas a União Europeia, mas também outras nações. Recentemente, o Brasil elevou a proteção de dados pessoais à categoria de direito fundamental. A Lei Geral de Proteção de Dados Pessoais (LGPD) já aborda princípios essenciais aplicados à privacidade e proteção de dados com o uso de IA, com direito à revisão de tratamento exclusivamente automatizado, refletindo uma preocupação crescente com novas tecnologias. Esse arcabouço legal é essencial para assegurar que a IA seja desenvolvida e implementada de maneira ética e responsável, especialmente no controle de sistemas de alto risco.

continua após a publicidade

A legislação europeia, focada numa IA segura e humanizada, demanda que sistemas de alto risco adotem medidas de gestão e supervisão rigorosas. No Brasil, o Projeto de Lei 2.338/2023 busca estabelecer diretrizes nacionais para o emprego ético da IA visando a resguardar direitos inalienáveis e fortalecer a segurança e a confiabilidade dos sistemas de IA. Além disso, a legislação da União Europeia oferece uma oportunidade de colmatar lacunas existentes em normas brasileiras sobre o tema, promovendo uma convergência em direção a padrões internacionais de governança tecnológica e ética.

O AI Act se destaca por ser uma norma de natureza principiológica, cuidadosamente elaborada para abranger uma ampla gama de aplicações de IA e por prevenir lacunas decorrentes do constante avanço tecnológico. Essa legislação classifica as aplicações de IA de acordo com os riscos associados, buscando equilibrar a promoção da inovação com a proteção de direitos fundamentais. Com base na avaliação do risco, o AI Act estabelece uma lista de práticas proibidas, distinguindo entre usos de IA que representam riscos inaceitáveis, elevados, baixos ou mínimos. Entre as práticas vetadas estão os sistemas de IA que violam os direitos humanos e fundamentais. Tais medidas são essenciais para prevenir riscos como a discriminação algorítmica, em que preconceitos podem ser inadvertidamente reproduzidos. Por meio de um processo rigoroso de avaliação e conformidade, o AI Act busca mitigar esses riscos, promovendo o uso ético e seguro da IA, e estabelecendo um modelo de regulamentação alinhado aos padrões globais de governança ética da tecnologia.

Aqui, o desenvolvimento de legislação inspirada pelo AI Act pode catalisar avanços significativos e promover frutífero diálogo nacional sobre suas implicações éticas e legais, alinhando o País com padrões internacionais. Além disso, o AI Act, com seu alcance extraterritorial, estende sua influência regulatória globalmente, afetando empresas fora da União Europeia que operam dentro de seus mercados. Essa extensão normativa demonstra como as regulamentações de uma região podem modelar práticas globais e servir como estímulo para que países como o nosso revisem e aperfeiçoem suas próprias legislações sobre IA.

continua após a publicidade

Esse panorama serve de referência para o Brasil, que ainda está em fase embrionária no que tange à regulamentação da IA, como também vive mergulhado num estado de profunda acrasia ética. Vale lembrar as duas coisas que deixavam Kant maravilhado: “Acima de mim, o céu estrelado, e dentro de mim, a lei moral”.

*

SÃO, RESPECTIVAMENTE, PROFESSOR TITULAR SÊNIOR DA FACULDADE DE DIREITO DA USP, EX-PRESIDENTE DO TRIBUNAL REGIONAL FEDERAL DA 3.ª REGIÃO; E PROFESSORA AUTORA DE PROTEÇÃO DE DADOS DA FGV DIREITO RIO E DE MBAS, AUTORA DE VÁRIAS OBRAS SOBRE O TEMA

A despeito da controvérsia existente sobre a expressão “inteligência artificial” – para o neurocientista Miguel Nicolelis, por exemplo, ela não seria nem inteligência nem artificial –, o fato é que tal designação, criada por John McCarthy, em 1956, tornou-se popularmente consagrada. Esse campo da ciência da computação é dedicado ao desenvolvimento de sistemas e algoritmos que realizam tarefas tradicionalmente próprias da inteligência humana. Avanços significativos levaram ao desenvolvimento do aprendizado de máquina, uma subárea da inteligência artificial (IA), definida em 1959 por Arthur Samuel como o campo de estudo que dá aos computadores a capacidade de aprender sem programação explícita. Essa habilidade de aprender a partir de dados durante o treinamento é um marco na evolução da IA possibilitando decisões autônomas baseadas em padrões.

No entanto, os riscos de vieses representam uma preocupação constante, sobretudo em razão de vieses históricos que podem perpetuar práticas discriminatórias preexistentes. Além disso, a falta de amostras representativas durante o treinamento pode induzir a vieses discriminatórios, assim como podemos identificar tipos de vieses que resultem em discriminação algorítmica e sérios riscos aos direitos humanos e fundamentais. Em resposta a essas preocupações, foi criado em abril de 2019 o Grupo de Peritos de Alto Nível (GPAN) sobre IA, um marco importante no desenvolvimento de diretrizes para uma IA confiável. O GPAN apresentou as Orientações éticas para uma IA de confiança, destinadas a orientar políticas e práticas no setor, com o objetivo de garantir que a IA seja desenvolvida de forma responsável e ética, em alinhamento com os direitos fundamentais e a dignidade humana.

O Regulamento de Inteligência Artificial da União Europeia (AI Act) foi aprovado pelo Parlamento Europeu em março de 2024, destacando-se como um marco legislativo pioneiro que influencia não apenas a União Europeia, mas também outras nações. Recentemente, o Brasil elevou a proteção de dados pessoais à categoria de direito fundamental. A Lei Geral de Proteção de Dados Pessoais (LGPD) já aborda princípios essenciais aplicados à privacidade e proteção de dados com o uso de IA, com direito à revisão de tratamento exclusivamente automatizado, refletindo uma preocupação crescente com novas tecnologias. Esse arcabouço legal é essencial para assegurar que a IA seja desenvolvida e implementada de maneira ética e responsável, especialmente no controle de sistemas de alto risco.

A legislação europeia, focada numa IA segura e humanizada, demanda que sistemas de alto risco adotem medidas de gestão e supervisão rigorosas. No Brasil, o Projeto de Lei 2.338/2023 busca estabelecer diretrizes nacionais para o emprego ético da IA visando a resguardar direitos inalienáveis e fortalecer a segurança e a confiabilidade dos sistemas de IA. Além disso, a legislação da União Europeia oferece uma oportunidade de colmatar lacunas existentes em normas brasileiras sobre o tema, promovendo uma convergência em direção a padrões internacionais de governança tecnológica e ética.

O AI Act se destaca por ser uma norma de natureza principiológica, cuidadosamente elaborada para abranger uma ampla gama de aplicações de IA e por prevenir lacunas decorrentes do constante avanço tecnológico. Essa legislação classifica as aplicações de IA de acordo com os riscos associados, buscando equilibrar a promoção da inovação com a proteção de direitos fundamentais. Com base na avaliação do risco, o AI Act estabelece uma lista de práticas proibidas, distinguindo entre usos de IA que representam riscos inaceitáveis, elevados, baixos ou mínimos. Entre as práticas vetadas estão os sistemas de IA que violam os direitos humanos e fundamentais. Tais medidas são essenciais para prevenir riscos como a discriminação algorítmica, em que preconceitos podem ser inadvertidamente reproduzidos. Por meio de um processo rigoroso de avaliação e conformidade, o AI Act busca mitigar esses riscos, promovendo o uso ético e seguro da IA, e estabelecendo um modelo de regulamentação alinhado aos padrões globais de governança ética da tecnologia.

Aqui, o desenvolvimento de legislação inspirada pelo AI Act pode catalisar avanços significativos e promover frutífero diálogo nacional sobre suas implicações éticas e legais, alinhando o País com padrões internacionais. Além disso, o AI Act, com seu alcance extraterritorial, estende sua influência regulatória globalmente, afetando empresas fora da União Europeia que operam dentro de seus mercados. Essa extensão normativa demonstra como as regulamentações de uma região podem modelar práticas globais e servir como estímulo para que países como o nosso revisem e aperfeiçoem suas próprias legislações sobre IA.

Esse panorama serve de referência para o Brasil, que ainda está em fase embrionária no que tange à regulamentação da IA, como também vive mergulhado num estado de profunda acrasia ética. Vale lembrar as duas coisas que deixavam Kant maravilhado: “Acima de mim, o céu estrelado, e dentro de mim, a lei moral”.

*

SÃO, RESPECTIVAMENTE, PROFESSOR TITULAR SÊNIOR DA FACULDADE DE DIREITO DA USP, EX-PRESIDENTE DO TRIBUNAL REGIONAL FEDERAL DA 3.ª REGIÃO; E PROFESSORA AUTORA DE PROTEÇÃO DE DADOS DA FGV DIREITO RIO E DE MBAS, AUTORA DE VÁRIAS OBRAS SOBRE O TEMA

A despeito da controvérsia existente sobre a expressão “inteligência artificial” – para o neurocientista Miguel Nicolelis, por exemplo, ela não seria nem inteligência nem artificial –, o fato é que tal designação, criada por John McCarthy, em 1956, tornou-se popularmente consagrada. Esse campo da ciência da computação é dedicado ao desenvolvimento de sistemas e algoritmos que realizam tarefas tradicionalmente próprias da inteligência humana. Avanços significativos levaram ao desenvolvimento do aprendizado de máquina, uma subárea da inteligência artificial (IA), definida em 1959 por Arthur Samuel como o campo de estudo que dá aos computadores a capacidade de aprender sem programação explícita. Essa habilidade de aprender a partir de dados durante o treinamento é um marco na evolução da IA possibilitando decisões autônomas baseadas em padrões.

No entanto, os riscos de vieses representam uma preocupação constante, sobretudo em razão de vieses históricos que podem perpetuar práticas discriminatórias preexistentes. Além disso, a falta de amostras representativas durante o treinamento pode induzir a vieses discriminatórios, assim como podemos identificar tipos de vieses que resultem em discriminação algorítmica e sérios riscos aos direitos humanos e fundamentais. Em resposta a essas preocupações, foi criado em abril de 2019 o Grupo de Peritos de Alto Nível (GPAN) sobre IA, um marco importante no desenvolvimento de diretrizes para uma IA confiável. O GPAN apresentou as Orientações éticas para uma IA de confiança, destinadas a orientar políticas e práticas no setor, com o objetivo de garantir que a IA seja desenvolvida de forma responsável e ética, em alinhamento com os direitos fundamentais e a dignidade humana.

O Regulamento de Inteligência Artificial da União Europeia (AI Act) foi aprovado pelo Parlamento Europeu em março de 2024, destacando-se como um marco legislativo pioneiro que influencia não apenas a União Europeia, mas também outras nações. Recentemente, o Brasil elevou a proteção de dados pessoais à categoria de direito fundamental. A Lei Geral de Proteção de Dados Pessoais (LGPD) já aborda princípios essenciais aplicados à privacidade e proteção de dados com o uso de IA, com direito à revisão de tratamento exclusivamente automatizado, refletindo uma preocupação crescente com novas tecnologias. Esse arcabouço legal é essencial para assegurar que a IA seja desenvolvida e implementada de maneira ética e responsável, especialmente no controle de sistemas de alto risco.

A legislação europeia, focada numa IA segura e humanizada, demanda que sistemas de alto risco adotem medidas de gestão e supervisão rigorosas. No Brasil, o Projeto de Lei 2.338/2023 busca estabelecer diretrizes nacionais para o emprego ético da IA visando a resguardar direitos inalienáveis e fortalecer a segurança e a confiabilidade dos sistemas de IA. Além disso, a legislação da União Europeia oferece uma oportunidade de colmatar lacunas existentes em normas brasileiras sobre o tema, promovendo uma convergência em direção a padrões internacionais de governança tecnológica e ética.

O AI Act se destaca por ser uma norma de natureza principiológica, cuidadosamente elaborada para abranger uma ampla gama de aplicações de IA e por prevenir lacunas decorrentes do constante avanço tecnológico. Essa legislação classifica as aplicações de IA de acordo com os riscos associados, buscando equilibrar a promoção da inovação com a proteção de direitos fundamentais. Com base na avaliação do risco, o AI Act estabelece uma lista de práticas proibidas, distinguindo entre usos de IA que representam riscos inaceitáveis, elevados, baixos ou mínimos. Entre as práticas vetadas estão os sistemas de IA que violam os direitos humanos e fundamentais. Tais medidas são essenciais para prevenir riscos como a discriminação algorítmica, em que preconceitos podem ser inadvertidamente reproduzidos. Por meio de um processo rigoroso de avaliação e conformidade, o AI Act busca mitigar esses riscos, promovendo o uso ético e seguro da IA, e estabelecendo um modelo de regulamentação alinhado aos padrões globais de governança ética da tecnologia.

Aqui, o desenvolvimento de legislação inspirada pelo AI Act pode catalisar avanços significativos e promover frutífero diálogo nacional sobre suas implicações éticas e legais, alinhando o País com padrões internacionais. Além disso, o AI Act, com seu alcance extraterritorial, estende sua influência regulatória globalmente, afetando empresas fora da União Europeia que operam dentro de seus mercados. Essa extensão normativa demonstra como as regulamentações de uma região podem modelar práticas globais e servir como estímulo para que países como o nosso revisem e aperfeiçoem suas próprias legislações sobre IA.

Esse panorama serve de referência para o Brasil, que ainda está em fase embrionária no que tange à regulamentação da IA, como também vive mergulhado num estado de profunda acrasia ética. Vale lembrar as duas coisas que deixavam Kant maravilhado: “Acima de mim, o céu estrelado, e dentro de mim, a lei moral”.

*

SÃO, RESPECTIVAMENTE, PROFESSOR TITULAR SÊNIOR DA FACULDADE DE DIREITO DA USP, EX-PRESIDENTE DO TRIBUNAL REGIONAL FEDERAL DA 3.ª REGIÃO; E PROFESSORA AUTORA DE PROTEÇÃO DE DADOS DA FGV DIREITO RIO E DE MBAS, AUTORA DE VÁRIAS OBRAS SOBRE O TEMA

Opinião por Newton De Lucca

Professor titular sênior da Faculdade de Direito da USP, foi presidente do Tribunal Regional Federal da 3.ª Região

Selma Carloto

Professora autora de Proteção de Dados da FGV Direito Rio e de MBAs, é autora de várias obras sobre o tema

Atualizamos nossa política de cookies

Ao utilizar nossos serviços, você aceita a política de monitoramento de cookies.