Notícias e artigos do mundo do Direito: a rotina da Polícia, Ministério Público e Tribunais

Opinião|Inteligência artificial no Brasil urge por regulação específica, com foco em seu uso ético


Por Renato Opice Blum*

Abrir este artigo descrevendo o quanto a Inteligência Artificial é uma tecnologia disruptiva, principalmente em sua modalidade generativa, soa um tanto quanto redundante. A mesma coisa vale para a sua aplicação em diversos setores da sociedade, com potencial transformador. No entanto, tudo isso esbarra em uma lacuna legislativa no Brasil: a falta de uma regulação que trate especificamente sobre a produção e o uso de sistemas de IA.

Renato Opice Blum Foto: Divulgação

Em tramitação no Senado Federal, o PL 2.338/2023 tem sido alvo de algumas críticas, inclusive por parte da ANPD (Autoridade Nacional de Proteção de Dados), quanto a pontos de convergência e conflito com a LGPD, além de questões relacionadas a critérios para a classificação de riscos e a possíveis vieses discriminatórios por parte da tecnologia.

continua após a publicidade

Após a aprovação em tempo recorde na Câmara dos Deputados de um projeto de lei para regular a produção e o uso da IA no Brasil, uma Comissão de juristas se formou no Senado Federal para elaborar uma minuta de substitutivo a três projetos de lei que tratam da temática: PL 5.051/2019, PL 21/2020 e PL 872/2021. O foco do documento, entregue em dezembro do ano passado, foi estabelecer princípios, regras, diretrizes e fundamentos para o regulamento do desenvolvimento e da aplicação da Inteligência Artificial no país.

O relatório, que contou com a participação de especialistas de diversos setores, defende a necessidade de um marco regulatório que garanta um uso ético e responsável da tecnologia. Ainda, identifica uma série de riscos associados a ela, como discriminação, polarização social e perda de controle sobre os sistemas autônomos.

Como forma de mitigação, esse documento estabelece princípios e diretrizes que devem orientar o desenvolvimento e a implementação da IA, entre os quais se destacam transparência, accountability (responsabilização), justiça e a segurança. O primeiro exige que os sistemas de IA sejam compreensíveis e explicáveis, para que as pessoas possam entender como funcionam e quais são seus impactos.

continua após a publicidade

A accountability diz respeito à possibilidade de responsabilização de desenvolvedores e usuários. A justiça, por sua vez, prevê que a tecnologia seja desenvolvida e utilizada de forma não discriminatória ou prejudicial a grupos ou indivíduos. Por fim, falar em segurança é entender que a IA deve ser protegida de ataques e falhas que possam causar danos a terceiros.

Além dos princípios, o relatório apresentado pelos juristas ao Senado propõe uma série de regras específicas para a regulamentação tecnologia, entre as quais destacam-se a necessidade de desenvolver uma política nacional de IA, que define objetivos e diretrizes para seu uso no país; criar um órgão regulador específico, responsável por fiscalizar o cumprimento da legislação e promover a disseminação de boas práticas; estabelecer requisitos de transparência, accountability e segurança; e promover educação e conscientização sobre IA, para que as pessoas possam entender seus riscos e benefícios.

Esse relatório pode ser considerado um passo importante e decisivo para a regulamentação da IA no país. No entanto, é cabe ressaltar aqui que a regulação dessa tecnologia é um processo complexo e desafiador, sendo necessário, para isso, se considerar uma série de fatores, como a sua natureza, os riscos e benefícios associados, além de diferentes perspectivas da sociedade.

continua após a publicidade

Potenciais riscos

Paralelamente aos benefícios trazidos pela Inteligência Artificial, estão os riscos derivados dela. Recentemente, Reino Unido, União Europeia, Estados Unidos e outros 20 países, entre eles o Brasil, assinaram a Declaração de Bletchley, para um desenvolvimento seguro da IA. No primeiro encontro da cúpula, foram levantadas preocupações em relação ao risco potencial da tecnologia e seu impacto nos direitos humanos.

O governo britânico, em relatório, alertou para esse cenário, ressaltando, no entanto, os benefícios da IA, em especial em seu modelo generativo. Na mesma linha da União Europeia, foi levantada a necessidade de categorização de riscos, além da cooperação entre países para o combate de ações criminosas com o uso da tecnologia, a exemplo de aperfeiçoamento de ataques cibernéticos, fraudes e deepfakes.

continua após a publicidade

Também neste mês, um grupo de cientistas da Academia Brasileira de Ciências (ABC) elaborou relatório alertando sobre os potenciais riscos da Inteligência Artificial, encaminhado ao Governo Federal. No documento, os especialistas apontam algumas medidas para que o Brasil não deixe de “surfar a onda” da IA. De acordo com eles, é preciso investimento e a criação de políticas públicas no setor, além de uma regulação específica.

Ainda, uma carta aberta, de iniciativa do Future of Life Institute, que ultrapassa mil assinaturas, entre elas, de grandes nomes da ciência e da tecnologia, como Noam Chomsky, Yuval Noah Harari, Elon Musk e Stuart Russel, pedem que grandes empresas de IA interrompam o treinamento da tecnologia por seis meses. Eles argumentam sobre a falta de planejamento e gerenciamento nos laboratórios.

Cenário global

continua após a publicidade

Ao mesmo tempo em que um marco legal para a regulamentação da IA precisa ser feito com cautela, há certa pressa em seu desenvolvimento, já que o uso desse tipo de tecnologia está cada vez mais presente no dia a dia das pessoas e os riscos associados a ele têm se tornando mais evidentes, como sentenças escritas com ChatGPT e que citam jurisprudências inexistentes. Um marco regulatório bem elaborado pode ajudar a garantir que a IA seja utilizada de forma ética e responsável.

Nessa toada, como já mencionado, o Brasil não é o único país com o tema em discussão. A União Europeia e países membros da OCDE (Organização para a Cooperação e Desenvolvimento Econômico), como bem ressalta o relatório entregue ao Senado, também estão desenvolvendo marcos regulatórios para o desenvolvimento e uso da Inteligência Artificial.

Uma das principais potências tecnológicas do mundo, a União Europeia tem a criação de normas e diretrizes para o uso ético da IA entre seu rol de prioridades, mostrando-se também preocupada com os potenciais riscos da tecnologia, como discriminação, manipulação de resultado e perda de privacidade.

continua após a publicidade

Entre as medidas regulatórias implementadas pelo bloco econômico está o Regulamento Europeu sobre Inteligência Artificial (EU AI Act), aprovado pelo Parlamento Europeu em junho de 2023 e que classifica os sistemas de acordo com seu risco potencial (alto, limitado e insignificante). Dessa forma, pode-se afirmar que a regulamentação da IA na UE é um processo complexo e multidisciplinar, o que, ao que tudo indica, será inspiração para o Brasil e seu marco legal.

A perspectiva dos países integrantes da OCDE é semelhante, presente em sua recomendação sobre o uso da IA, elaborada em 2019. Além da indicação de princípios básicos para a regulação, o bloco tem sido responsável por promover uma cooperação internacional para a troca de diretrizes sobre a temática, tendo lançado neste ano o Observatório de Políticas de IA, que reúne especialistas de todo o mundo para discutir os desafios e oportunidades dessa tecnologia.

Dessa forma, a regulação da Inteligência Artificial no Brasil já se mostra com certo atraso, sendo urgente, porém com cautela e responsabilidade, que se tenha a aprovação de um marco legal para definir princípios, regras, diretrizes e fundamentos para o regulamento do desenvolvimento e da aplicação da tecnologia no Brasil.

*Renato Opice Blum é advogado e economista; professor da FAAP /INSPER/EPD/EBRADI/PUC-RS/IBMEC/StartSe; diretor da International Technology Law Association – ITECHLAW; conselheiro da EuroPrivacy e membro da Associação Europeia de Privacidade; juiz do IIC do Massachusetts Institute of Technology; presidente da Associação Brasileira de Proteção de Dados; mestre pela Florida Christian University

Abrir este artigo descrevendo o quanto a Inteligência Artificial é uma tecnologia disruptiva, principalmente em sua modalidade generativa, soa um tanto quanto redundante. A mesma coisa vale para a sua aplicação em diversos setores da sociedade, com potencial transformador. No entanto, tudo isso esbarra em uma lacuna legislativa no Brasil: a falta de uma regulação que trate especificamente sobre a produção e o uso de sistemas de IA.

Renato Opice Blum Foto: Divulgação

Em tramitação no Senado Federal, o PL 2.338/2023 tem sido alvo de algumas críticas, inclusive por parte da ANPD (Autoridade Nacional de Proteção de Dados), quanto a pontos de convergência e conflito com a LGPD, além de questões relacionadas a critérios para a classificação de riscos e a possíveis vieses discriminatórios por parte da tecnologia.

Após a aprovação em tempo recorde na Câmara dos Deputados de um projeto de lei para regular a produção e o uso da IA no Brasil, uma Comissão de juristas se formou no Senado Federal para elaborar uma minuta de substitutivo a três projetos de lei que tratam da temática: PL 5.051/2019, PL 21/2020 e PL 872/2021. O foco do documento, entregue em dezembro do ano passado, foi estabelecer princípios, regras, diretrizes e fundamentos para o regulamento do desenvolvimento e da aplicação da Inteligência Artificial no país.

O relatório, que contou com a participação de especialistas de diversos setores, defende a necessidade de um marco regulatório que garanta um uso ético e responsável da tecnologia. Ainda, identifica uma série de riscos associados a ela, como discriminação, polarização social e perda de controle sobre os sistemas autônomos.

Como forma de mitigação, esse documento estabelece princípios e diretrizes que devem orientar o desenvolvimento e a implementação da IA, entre os quais se destacam transparência, accountability (responsabilização), justiça e a segurança. O primeiro exige que os sistemas de IA sejam compreensíveis e explicáveis, para que as pessoas possam entender como funcionam e quais são seus impactos.

A accountability diz respeito à possibilidade de responsabilização de desenvolvedores e usuários. A justiça, por sua vez, prevê que a tecnologia seja desenvolvida e utilizada de forma não discriminatória ou prejudicial a grupos ou indivíduos. Por fim, falar em segurança é entender que a IA deve ser protegida de ataques e falhas que possam causar danos a terceiros.

Além dos princípios, o relatório apresentado pelos juristas ao Senado propõe uma série de regras específicas para a regulamentação tecnologia, entre as quais destacam-se a necessidade de desenvolver uma política nacional de IA, que define objetivos e diretrizes para seu uso no país; criar um órgão regulador específico, responsável por fiscalizar o cumprimento da legislação e promover a disseminação de boas práticas; estabelecer requisitos de transparência, accountability e segurança; e promover educação e conscientização sobre IA, para que as pessoas possam entender seus riscos e benefícios.

Esse relatório pode ser considerado um passo importante e decisivo para a regulamentação da IA no país. No entanto, é cabe ressaltar aqui que a regulação dessa tecnologia é um processo complexo e desafiador, sendo necessário, para isso, se considerar uma série de fatores, como a sua natureza, os riscos e benefícios associados, além de diferentes perspectivas da sociedade.

Potenciais riscos

Paralelamente aos benefícios trazidos pela Inteligência Artificial, estão os riscos derivados dela. Recentemente, Reino Unido, União Europeia, Estados Unidos e outros 20 países, entre eles o Brasil, assinaram a Declaração de Bletchley, para um desenvolvimento seguro da IA. No primeiro encontro da cúpula, foram levantadas preocupações em relação ao risco potencial da tecnologia e seu impacto nos direitos humanos.

O governo britânico, em relatório, alertou para esse cenário, ressaltando, no entanto, os benefícios da IA, em especial em seu modelo generativo. Na mesma linha da União Europeia, foi levantada a necessidade de categorização de riscos, além da cooperação entre países para o combate de ações criminosas com o uso da tecnologia, a exemplo de aperfeiçoamento de ataques cibernéticos, fraudes e deepfakes.

Também neste mês, um grupo de cientistas da Academia Brasileira de Ciências (ABC) elaborou relatório alertando sobre os potenciais riscos da Inteligência Artificial, encaminhado ao Governo Federal. No documento, os especialistas apontam algumas medidas para que o Brasil não deixe de “surfar a onda” da IA. De acordo com eles, é preciso investimento e a criação de políticas públicas no setor, além de uma regulação específica.

Ainda, uma carta aberta, de iniciativa do Future of Life Institute, que ultrapassa mil assinaturas, entre elas, de grandes nomes da ciência e da tecnologia, como Noam Chomsky, Yuval Noah Harari, Elon Musk e Stuart Russel, pedem que grandes empresas de IA interrompam o treinamento da tecnologia por seis meses. Eles argumentam sobre a falta de planejamento e gerenciamento nos laboratórios.

Cenário global

Ao mesmo tempo em que um marco legal para a regulamentação da IA precisa ser feito com cautela, há certa pressa em seu desenvolvimento, já que o uso desse tipo de tecnologia está cada vez mais presente no dia a dia das pessoas e os riscos associados a ele têm se tornando mais evidentes, como sentenças escritas com ChatGPT e que citam jurisprudências inexistentes. Um marco regulatório bem elaborado pode ajudar a garantir que a IA seja utilizada de forma ética e responsável.

Nessa toada, como já mencionado, o Brasil não é o único país com o tema em discussão. A União Europeia e países membros da OCDE (Organização para a Cooperação e Desenvolvimento Econômico), como bem ressalta o relatório entregue ao Senado, também estão desenvolvendo marcos regulatórios para o desenvolvimento e uso da Inteligência Artificial.

Uma das principais potências tecnológicas do mundo, a União Europeia tem a criação de normas e diretrizes para o uso ético da IA entre seu rol de prioridades, mostrando-se também preocupada com os potenciais riscos da tecnologia, como discriminação, manipulação de resultado e perda de privacidade.

Entre as medidas regulatórias implementadas pelo bloco econômico está o Regulamento Europeu sobre Inteligência Artificial (EU AI Act), aprovado pelo Parlamento Europeu em junho de 2023 e que classifica os sistemas de acordo com seu risco potencial (alto, limitado e insignificante). Dessa forma, pode-se afirmar que a regulamentação da IA na UE é um processo complexo e multidisciplinar, o que, ao que tudo indica, será inspiração para o Brasil e seu marco legal.

A perspectiva dos países integrantes da OCDE é semelhante, presente em sua recomendação sobre o uso da IA, elaborada em 2019. Além da indicação de princípios básicos para a regulação, o bloco tem sido responsável por promover uma cooperação internacional para a troca de diretrizes sobre a temática, tendo lançado neste ano o Observatório de Políticas de IA, que reúne especialistas de todo o mundo para discutir os desafios e oportunidades dessa tecnologia.

Dessa forma, a regulação da Inteligência Artificial no Brasil já se mostra com certo atraso, sendo urgente, porém com cautela e responsabilidade, que se tenha a aprovação de um marco legal para definir princípios, regras, diretrizes e fundamentos para o regulamento do desenvolvimento e da aplicação da tecnologia no Brasil.

*Renato Opice Blum é advogado e economista; professor da FAAP /INSPER/EPD/EBRADI/PUC-RS/IBMEC/StartSe; diretor da International Technology Law Association – ITECHLAW; conselheiro da EuroPrivacy e membro da Associação Europeia de Privacidade; juiz do IIC do Massachusetts Institute of Technology; presidente da Associação Brasileira de Proteção de Dados; mestre pela Florida Christian University

Abrir este artigo descrevendo o quanto a Inteligência Artificial é uma tecnologia disruptiva, principalmente em sua modalidade generativa, soa um tanto quanto redundante. A mesma coisa vale para a sua aplicação em diversos setores da sociedade, com potencial transformador. No entanto, tudo isso esbarra em uma lacuna legislativa no Brasil: a falta de uma regulação que trate especificamente sobre a produção e o uso de sistemas de IA.

Renato Opice Blum Foto: Divulgação

Em tramitação no Senado Federal, o PL 2.338/2023 tem sido alvo de algumas críticas, inclusive por parte da ANPD (Autoridade Nacional de Proteção de Dados), quanto a pontos de convergência e conflito com a LGPD, além de questões relacionadas a critérios para a classificação de riscos e a possíveis vieses discriminatórios por parte da tecnologia.

Após a aprovação em tempo recorde na Câmara dos Deputados de um projeto de lei para regular a produção e o uso da IA no Brasil, uma Comissão de juristas se formou no Senado Federal para elaborar uma minuta de substitutivo a três projetos de lei que tratam da temática: PL 5.051/2019, PL 21/2020 e PL 872/2021. O foco do documento, entregue em dezembro do ano passado, foi estabelecer princípios, regras, diretrizes e fundamentos para o regulamento do desenvolvimento e da aplicação da Inteligência Artificial no país.

O relatório, que contou com a participação de especialistas de diversos setores, defende a necessidade de um marco regulatório que garanta um uso ético e responsável da tecnologia. Ainda, identifica uma série de riscos associados a ela, como discriminação, polarização social e perda de controle sobre os sistemas autônomos.

Como forma de mitigação, esse documento estabelece princípios e diretrizes que devem orientar o desenvolvimento e a implementação da IA, entre os quais se destacam transparência, accountability (responsabilização), justiça e a segurança. O primeiro exige que os sistemas de IA sejam compreensíveis e explicáveis, para que as pessoas possam entender como funcionam e quais são seus impactos.

A accountability diz respeito à possibilidade de responsabilização de desenvolvedores e usuários. A justiça, por sua vez, prevê que a tecnologia seja desenvolvida e utilizada de forma não discriminatória ou prejudicial a grupos ou indivíduos. Por fim, falar em segurança é entender que a IA deve ser protegida de ataques e falhas que possam causar danos a terceiros.

Além dos princípios, o relatório apresentado pelos juristas ao Senado propõe uma série de regras específicas para a regulamentação tecnologia, entre as quais destacam-se a necessidade de desenvolver uma política nacional de IA, que define objetivos e diretrizes para seu uso no país; criar um órgão regulador específico, responsável por fiscalizar o cumprimento da legislação e promover a disseminação de boas práticas; estabelecer requisitos de transparência, accountability e segurança; e promover educação e conscientização sobre IA, para que as pessoas possam entender seus riscos e benefícios.

Esse relatório pode ser considerado um passo importante e decisivo para a regulamentação da IA no país. No entanto, é cabe ressaltar aqui que a regulação dessa tecnologia é um processo complexo e desafiador, sendo necessário, para isso, se considerar uma série de fatores, como a sua natureza, os riscos e benefícios associados, além de diferentes perspectivas da sociedade.

Potenciais riscos

Paralelamente aos benefícios trazidos pela Inteligência Artificial, estão os riscos derivados dela. Recentemente, Reino Unido, União Europeia, Estados Unidos e outros 20 países, entre eles o Brasil, assinaram a Declaração de Bletchley, para um desenvolvimento seguro da IA. No primeiro encontro da cúpula, foram levantadas preocupações em relação ao risco potencial da tecnologia e seu impacto nos direitos humanos.

O governo britânico, em relatório, alertou para esse cenário, ressaltando, no entanto, os benefícios da IA, em especial em seu modelo generativo. Na mesma linha da União Europeia, foi levantada a necessidade de categorização de riscos, além da cooperação entre países para o combate de ações criminosas com o uso da tecnologia, a exemplo de aperfeiçoamento de ataques cibernéticos, fraudes e deepfakes.

Também neste mês, um grupo de cientistas da Academia Brasileira de Ciências (ABC) elaborou relatório alertando sobre os potenciais riscos da Inteligência Artificial, encaminhado ao Governo Federal. No documento, os especialistas apontam algumas medidas para que o Brasil não deixe de “surfar a onda” da IA. De acordo com eles, é preciso investimento e a criação de políticas públicas no setor, além de uma regulação específica.

Ainda, uma carta aberta, de iniciativa do Future of Life Institute, que ultrapassa mil assinaturas, entre elas, de grandes nomes da ciência e da tecnologia, como Noam Chomsky, Yuval Noah Harari, Elon Musk e Stuart Russel, pedem que grandes empresas de IA interrompam o treinamento da tecnologia por seis meses. Eles argumentam sobre a falta de planejamento e gerenciamento nos laboratórios.

Cenário global

Ao mesmo tempo em que um marco legal para a regulamentação da IA precisa ser feito com cautela, há certa pressa em seu desenvolvimento, já que o uso desse tipo de tecnologia está cada vez mais presente no dia a dia das pessoas e os riscos associados a ele têm se tornando mais evidentes, como sentenças escritas com ChatGPT e que citam jurisprudências inexistentes. Um marco regulatório bem elaborado pode ajudar a garantir que a IA seja utilizada de forma ética e responsável.

Nessa toada, como já mencionado, o Brasil não é o único país com o tema em discussão. A União Europeia e países membros da OCDE (Organização para a Cooperação e Desenvolvimento Econômico), como bem ressalta o relatório entregue ao Senado, também estão desenvolvendo marcos regulatórios para o desenvolvimento e uso da Inteligência Artificial.

Uma das principais potências tecnológicas do mundo, a União Europeia tem a criação de normas e diretrizes para o uso ético da IA entre seu rol de prioridades, mostrando-se também preocupada com os potenciais riscos da tecnologia, como discriminação, manipulação de resultado e perda de privacidade.

Entre as medidas regulatórias implementadas pelo bloco econômico está o Regulamento Europeu sobre Inteligência Artificial (EU AI Act), aprovado pelo Parlamento Europeu em junho de 2023 e que classifica os sistemas de acordo com seu risco potencial (alto, limitado e insignificante). Dessa forma, pode-se afirmar que a regulamentação da IA na UE é um processo complexo e multidisciplinar, o que, ao que tudo indica, será inspiração para o Brasil e seu marco legal.

A perspectiva dos países integrantes da OCDE é semelhante, presente em sua recomendação sobre o uso da IA, elaborada em 2019. Além da indicação de princípios básicos para a regulação, o bloco tem sido responsável por promover uma cooperação internacional para a troca de diretrizes sobre a temática, tendo lançado neste ano o Observatório de Políticas de IA, que reúne especialistas de todo o mundo para discutir os desafios e oportunidades dessa tecnologia.

Dessa forma, a regulação da Inteligência Artificial no Brasil já se mostra com certo atraso, sendo urgente, porém com cautela e responsabilidade, que se tenha a aprovação de um marco legal para definir princípios, regras, diretrizes e fundamentos para o regulamento do desenvolvimento e da aplicação da tecnologia no Brasil.

*Renato Opice Blum é advogado e economista; professor da FAAP /INSPER/EPD/EBRADI/PUC-RS/IBMEC/StartSe; diretor da International Technology Law Association – ITECHLAW; conselheiro da EuroPrivacy e membro da Associação Europeia de Privacidade; juiz do IIC do Massachusetts Institute of Technology; presidente da Associação Brasileira de Proteção de Dados; mestre pela Florida Christian University

Opinião por Renato Opice Blum*

Atualizamos nossa política de cookies

Ao utilizar nossos serviços, você aceita a política de monitoramento de cookies.