Notícias e artigos do mundo do Direito: a rotina da Polícia, Ministério Público e Tribunais

Opinião|Desafios e aspectos da regulação da inteligência artificial


Por Ricardo Campos e Rodrigo Badaró*

Sistemas de inteligência artificial se fazem cada vez mais presentes em nosso cotidiano. Entretanto, à medida que a tecnologia avança e se dissemina, surgem preocupações sobre seu impacto nos direitos dos cidadãos, levantando questões éticas, jurídicas e socioeconômicas. Nos últimos anos, esforços têm sido empreendidos para encontrar um equilíbrio adequado entre a inovação tecnológica e a proteção dos interesses públicos e direitos individuais, o que se manifesta tanto por meio de abordagens regulatórias variadas.

Ricardo Campos e Rodrigo Badaró Foto: Arquivo pessoal

Há uma insuperável dificuldade de se estabelecer um consenso que acomode as diferentes noções jurídicas envolvidas na adoção de um regime universalmente aplicável para a IA. Não obstante, algumas iniciativas regulatórias, como as recomendações da Unesco e da OCDE para o desenvolvimento e uso da tecnologia, parecem caminhar em uma mesma direção: conquanto haja divergências quanto ao conteúdo e à forma de implementação das diretrizes, o respeito à privacidade e proteção dos dados pessoais, a necessidade de um regime de responsabilidade, e requisitos de segurança, transparência, explicabilidade e não discriminação parecem representar um denominador comum nos mais diversos instrumentos regulatórios.

continua após a publicidade

O ponto é que, por mais que simbolizem a boa-vontade global para a regulação da IA, esses documentos trazem princípios e compromissos gerais e voluntários, deixando à margem algumas vezes os interesses econômicos e políticos subjacentes à corrida do ouro contemporânea. É diante disso que Estados também buscam organizar estruturas e padrões internos próprios, em conformidade com suas características sociais, econômicas e políticas específicas, seja estabelecendo “meros” princípios éticos que guiem o desenvolvimento da IA, seja definindo regras mais robustas e rígidas.

A União Europeia, por exemplo, tem buscado construir uma abordagem regulatória que promova a adoção da IA, ao mesmo tempo em que aborde uma série de riscos a ela associados. Há uma preocupação com um quadro regulatório que possibilitasse a construção de um ecossistema de confiança entre empresas e consumidores, mas que acelere a adoção da tecnologia no espaço europeu. Para isso, o bloco tem enfrentado o desafio de estabelecer uma definição de IA flexível o suficiente para acomodar a dinamicidade da tecnologia, bem como as vantagens da adoção de uma abordagem baseada em risco, a fim de que seja eficaz sem ser excessivamente prescritiva. É nesse contexto que se dá a publicação, em 2021, da proposta de Regulamento sobre a IA – o chamado AI Act.

Ao contrário da UE, as regulações nos EUA são elaboradas, de maneira geral, a nível estadual e setorial, de forma descentralizada e vertical. Recentemente, porém, mudando a tendência, o presidente Biden emitiu uma ordem executiva intitulada Decreto Executivo sobre o Desenvolvimento e uso Seguro e Confiável da Inteligência Artificial (em tradução livre), que estabelece uma série de compromissos voluntários a serem cumpridos pelas empresas que pretendem desenvolver e empregar a tecnologia no país.

continua após a publicidade

Outro exemplo que não se pode deixar de citar é o da China, país com a mais robusta regulação sobre a temática, contando com leis específicas sobre assuntos como recomendação algorítmica e manipulação profunda de conteúdos. A abordagem chinesa, diferentemente da europeia e americana, enxerga a forte atuação estatal como um diferencial apto a promover, em primeiro lugar, o fortalecimento do mercado interno chinês, tendo como consequência uma posição hegemônica no desenvolvimento da tecnologia em perspectiva global.

A estratégica chinesa envolve a aproximação do Estado com as principais empresas de IA do país, o que nos leva a um ponto interessante da discussão sobre a regulação dessa tecnologia. Segundo reportagem do Washington Post, quando a Administração para o Ciberespaço da China (CAC) teve sua primeira reunião com as empresas para discutir a regulação de algoritmos, os representantes estatais “demonstraram pouca compreensão dos detalhes técnicos”, fazendo com que os representantes das empresas empregassem uma combinação de metáforas e linguagem simplificada para abordar o assunto. Isso deixa claro que, em se tratando da regulação da IA (e outras tecnologias emergentes), confiar apenas no aparato estatal para estabelecer normas e diretrizes de desenvolvimento pode ser um fator negativo do ponto de vista da inovação.

Deixar claros os fins da regulação da IA, afinal, é uma tarefa complexa, mas que pode definir os rumos de um país. Enquanto, a título ilustrativo, o AI Act europeu apresenta um desenho rígido, focado estritamente nos direitos fundamentais dos usuários, a abordagem estadunidense tem como premissa principal uma agenda pró-inovação, que se volta à eliminação de potenciais barreiras ao avanço tecnológico. De um lado, o modelo europeu implica alguns problemas, especialmente em razão de sua inflexibilidade quanto às classificações e limitações do uso da IA, além de sanções que podem impedir o investimento em tecnologia; do outro, um modelo autorregulatório, com normas baseadas em consensos, mas que pode acabar por descuidar de determinados direitos e garantias.

continua após a publicidade

No contexto brasileiro, por sua vez, vivenciamos um movimento quase pendular, iniciado pela Estratégia Brasileira de Inteligência Artificial (EBIA), à qual se somou o PL 21/2020, de caráter eminentemente principiológico. Por outro lado, o atual PL 2338/23, é louvável pela instituição de uma comissão de juristas extremamente qualificados para debater o assunto, contando com o entusiasmo salutar do ilustre Presidente Senador Rodrigo Pacheco, tendo produzido uma norma moderna e muito bem estruturada. Se não bastasse, a norma vem sendo objeto de grande debate em Comissão Especial no Senado Federal, demonstrando a maturidade do parlamento e preocupação quanto a matéria tão importante. Com efeito, dentro de algumas preocupações, estão aquelas desenvolvimentistas dentro do dilema secular de inovação e regulação, buscando-se o ponto ideal que não alije o Brasil, que tem enorme potencial na criação de novas tecnologias e ideias da corrida internacional, e preserve a mitigação de riscos, que são sempre potencializados em um país continental, com muitas diferenças raciais e sociais, dentre outras. Assim, na busca de se contribuir para o debate, é imprescindível que o Congresso se debruce na verificação de categorizações e particularidades setoriais, e no contexto sociopolítico econômico, preservando-se o estimulo a inovação e desenvolvimento tecnológico no Brasil.

Nesse sentido, a autorregulação regulada (i.e., com participação de entes privados no processo regulatório, sob supervisão do Estado) representa uma via promissora para fomentar o desenvolvimento ético e responsável da IA, ao mesmo tempo em que haja flexibilidade e adaptabilidade necessárias para a inovação. Diversos fatores podem ser ponderados para fortalecer e apoiar esse enfoque: a participação ativa e multidisciplinar de uma ampla gama de partes interessadas na concepção e construção de ferramentas autorregulatórias para a IA pode potencializar o compromisso e a aceitação dessas iniciativas, o que permite incorporar uma diversidade de perspectivas e conhecimentos, enriquecendo o processo como um todo. Além disso, a busca por abordagens inovadoras é essencial para lidar com os custos percebidos e os ônus associados à implementação de mecanismos de autorregulação.

Na discussão da norma, é imprescindível considerar os diferentes processos de formação de conhecimento existentes na sociedade digital atual. A utilização de ferramentas de autorregulação, adaptadas a contextos e casos de uso específicos, incentiva a adoção voluntária dessas ferramentas. Ao fim e ao cabo, isso permite a adaptação das normas às necessidades singulares das diversas aplicações da IA, estabelecendo um ambiente regulatório que respeita e promove direitos fundamentais e, ao mesmo tempo, estimula o desenvolvimento e a inovação.

continua após a publicidade

*Ricardo Campos, docente na Goethe Universidade Frankfurt am Main e sócio do Warde Advogados

*Rodrigo Badaró, advogado, conselheiro nacional do Ministério Público e conselheiro nacional de proteção de dados (2021/2023)

Sistemas de inteligência artificial se fazem cada vez mais presentes em nosso cotidiano. Entretanto, à medida que a tecnologia avança e se dissemina, surgem preocupações sobre seu impacto nos direitos dos cidadãos, levantando questões éticas, jurídicas e socioeconômicas. Nos últimos anos, esforços têm sido empreendidos para encontrar um equilíbrio adequado entre a inovação tecnológica e a proteção dos interesses públicos e direitos individuais, o que se manifesta tanto por meio de abordagens regulatórias variadas.

Ricardo Campos e Rodrigo Badaró Foto: Arquivo pessoal

Há uma insuperável dificuldade de se estabelecer um consenso que acomode as diferentes noções jurídicas envolvidas na adoção de um regime universalmente aplicável para a IA. Não obstante, algumas iniciativas regulatórias, como as recomendações da Unesco e da OCDE para o desenvolvimento e uso da tecnologia, parecem caminhar em uma mesma direção: conquanto haja divergências quanto ao conteúdo e à forma de implementação das diretrizes, o respeito à privacidade e proteção dos dados pessoais, a necessidade de um regime de responsabilidade, e requisitos de segurança, transparência, explicabilidade e não discriminação parecem representar um denominador comum nos mais diversos instrumentos regulatórios.

O ponto é que, por mais que simbolizem a boa-vontade global para a regulação da IA, esses documentos trazem princípios e compromissos gerais e voluntários, deixando à margem algumas vezes os interesses econômicos e políticos subjacentes à corrida do ouro contemporânea. É diante disso que Estados também buscam organizar estruturas e padrões internos próprios, em conformidade com suas características sociais, econômicas e políticas específicas, seja estabelecendo “meros” princípios éticos que guiem o desenvolvimento da IA, seja definindo regras mais robustas e rígidas.

A União Europeia, por exemplo, tem buscado construir uma abordagem regulatória que promova a adoção da IA, ao mesmo tempo em que aborde uma série de riscos a ela associados. Há uma preocupação com um quadro regulatório que possibilitasse a construção de um ecossistema de confiança entre empresas e consumidores, mas que acelere a adoção da tecnologia no espaço europeu. Para isso, o bloco tem enfrentado o desafio de estabelecer uma definição de IA flexível o suficiente para acomodar a dinamicidade da tecnologia, bem como as vantagens da adoção de uma abordagem baseada em risco, a fim de que seja eficaz sem ser excessivamente prescritiva. É nesse contexto que se dá a publicação, em 2021, da proposta de Regulamento sobre a IA – o chamado AI Act.

Ao contrário da UE, as regulações nos EUA são elaboradas, de maneira geral, a nível estadual e setorial, de forma descentralizada e vertical. Recentemente, porém, mudando a tendência, o presidente Biden emitiu uma ordem executiva intitulada Decreto Executivo sobre o Desenvolvimento e uso Seguro e Confiável da Inteligência Artificial (em tradução livre), que estabelece uma série de compromissos voluntários a serem cumpridos pelas empresas que pretendem desenvolver e empregar a tecnologia no país.

Outro exemplo que não se pode deixar de citar é o da China, país com a mais robusta regulação sobre a temática, contando com leis específicas sobre assuntos como recomendação algorítmica e manipulação profunda de conteúdos. A abordagem chinesa, diferentemente da europeia e americana, enxerga a forte atuação estatal como um diferencial apto a promover, em primeiro lugar, o fortalecimento do mercado interno chinês, tendo como consequência uma posição hegemônica no desenvolvimento da tecnologia em perspectiva global.

A estratégica chinesa envolve a aproximação do Estado com as principais empresas de IA do país, o que nos leva a um ponto interessante da discussão sobre a regulação dessa tecnologia. Segundo reportagem do Washington Post, quando a Administração para o Ciberespaço da China (CAC) teve sua primeira reunião com as empresas para discutir a regulação de algoritmos, os representantes estatais “demonstraram pouca compreensão dos detalhes técnicos”, fazendo com que os representantes das empresas empregassem uma combinação de metáforas e linguagem simplificada para abordar o assunto. Isso deixa claro que, em se tratando da regulação da IA (e outras tecnologias emergentes), confiar apenas no aparato estatal para estabelecer normas e diretrizes de desenvolvimento pode ser um fator negativo do ponto de vista da inovação.

Deixar claros os fins da regulação da IA, afinal, é uma tarefa complexa, mas que pode definir os rumos de um país. Enquanto, a título ilustrativo, o AI Act europeu apresenta um desenho rígido, focado estritamente nos direitos fundamentais dos usuários, a abordagem estadunidense tem como premissa principal uma agenda pró-inovação, que se volta à eliminação de potenciais barreiras ao avanço tecnológico. De um lado, o modelo europeu implica alguns problemas, especialmente em razão de sua inflexibilidade quanto às classificações e limitações do uso da IA, além de sanções que podem impedir o investimento em tecnologia; do outro, um modelo autorregulatório, com normas baseadas em consensos, mas que pode acabar por descuidar de determinados direitos e garantias.

No contexto brasileiro, por sua vez, vivenciamos um movimento quase pendular, iniciado pela Estratégia Brasileira de Inteligência Artificial (EBIA), à qual se somou o PL 21/2020, de caráter eminentemente principiológico. Por outro lado, o atual PL 2338/23, é louvável pela instituição de uma comissão de juristas extremamente qualificados para debater o assunto, contando com o entusiasmo salutar do ilustre Presidente Senador Rodrigo Pacheco, tendo produzido uma norma moderna e muito bem estruturada. Se não bastasse, a norma vem sendo objeto de grande debate em Comissão Especial no Senado Federal, demonstrando a maturidade do parlamento e preocupação quanto a matéria tão importante. Com efeito, dentro de algumas preocupações, estão aquelas desenvolvimentistas dentro do dilema secular de inovação e regulação, buscando-se o ponto ideal que não alije o Brasil, que tem enorme potencial na criação de novas tecnologias e ideias da corrida internacional, e preserve a mitigação de riscos, que são sempre potencializados em um país continental, com muitas diferenças raciais e sociais, dentre outras. Assim, na busca de se contribuir para o debate, é imprescindível que o Congresso se debruce na verificação de categorizações e particularidades setoriais, e no contexto sociopolítico econômico, preservando-se o estimulo a inovação e desenvolvimento tecnológico no Brasil.

Nesse sentido, a autorregulação regulada (i.e., com participação de entes privados no processo regulatório, sob supervisão do Estado) representa uma via promissora para fomentar o desenvolvimento ético e responsável da IA, ao mesmo tempo em que haja flexibilidade e adaptabilidade necessárias para a inovação. Diversos fatores podem ser ponderados para fortalecer e apoiar esse enfoque: a participação ativa e multidisciplinar de uma ampla gama de partes interessadas na concepção e construção de ferramentas autorregulatórias para a IA pode potencializar o compromisso e a aceitação dessas iniciativas, o que permite incorporar uma diversidade de perspectivas e conhecimentos, enriquecendo o processo como um todo. Além disso, a busca por abordagens inovadoras é essencial para lidar com os custos percebidos e os ônus associados à implementação de mecanismos de autorregulação.

Na discussão da norma, é imprescindível considerar os diferentes processos de formação de conhecimento existentes na sociedade digital atual. A utilização de ferramentas de autorregulação, adaptadas a contextos e casos de uso específicos, incentiva a adoção voluntária dessas ferramentas. Ao fim e ao cabo, isso permite a adaptação das normas às necessidades singulares das diversas aplicações da IA, estabelecendo um ambiente regulatório que respeita e promove direitos fundamentais e, ao mesmo tempo, estimula o desenvolvimento e a inovação.

*Ricardo Campos, docente na Goethe Universidade Frankfurt am Main e sócio do Warde Advogados

*Rodrigo Badaró, advogado, conselheiro nacional do Ministério Público e conselheiro nacional de proteção de dados (2021/2023)

Sistemas de inteligência artificial se fazem cada vez mais presentes em nosso cotidiano. Entretanto, à medida que a tecnologia avança e se dissemina, surgem preocupações sobre seu impacto nos direitos dos cidadãos, levantando questões éticas, jurídicas e socioeconômicas. Nos últimos anos, esforços têm sido empreendidos para encontrar um equilíbrio adequado entre a inovação tecnológica e a proteção dos interesses públicos e direitos individuais, o que se manifesta tanto por meio de abordagens regulatórias variadas.

Ricardo Campos e Rodrigo Badaró Foto: Arquivo pessoal

Há uma insuperável dificuldade de se estabelecer um consenso que acomode as diferentes noções jurídicas envolvidas na adoção de um regime universalmente aplicável para a IA. Não obstante, algumas iniciativas regulatórias, como as recomendações da Unesco e da OCDE para o desenvolvimento e uso da tecnologia, parecem caminhar em uma mesma direção: conquanto haja divergências quanto ao conteúdo e à forma de implementação das diretrizes, o respeito à privacidade e proteção dos dados pessoais, a necessidade de um regime de responsabilidade, e requisitos de segurança, transparência, explicabilidade e não discriminação parecem representar um denominador comum nos mais diversos instrumentos regulatórios.

O ponto é que, por mais que simbolizem a boa-vontade global para a regulação da IA, esses documentos trazem princípios e compromissos gerais e voluntários, deixando à margem algumas vezes os interesses econômicos e políticos subjacentes à corrida do ouro contemporânea. É diante disso que Estados também buscam organizar estruturas e padrões internos próprios, em conformidade com suas características sociais, econômicas e políticas específicas, seja estabelecendo “meros” princípios éticos que guiem o desenvolvimento da IA, seja definindo regras mais robustas e rígidas.

A União Europeia, por exemplo, tem buscado construir uma abordagem regulatória que promova a adoção da IA, ao mesmo tempo em que aborde uma série de riscos a ela associados. Há uma preocupação com um quadro regulatório que possibilitasse a construção de um ecossistema de confiança entre empresas e consumidores, mas que acelere a adoção da tecnologia no espaço europeu. Para isso, o bloco tem enfrentado o desafio de estabelecer uma definição de IA flexível o suficiente para acomodar a dinamicidade da tecnologia, bem como as vantagens da adoção de uma abordagem baseada em risco, a fim de que seja eficaz sem ser excessivamente prescritiva. É nesse contexto que se dá a publicação, em 2021, da proposta de Regulamento sobre a IA – o chamado AI Act.

Ao contrário da UE, as regulações nos EUA são elaboradas, de maneira geral, a nível estadual e setorial, de forma descentralizada e vertical. Recentemente, porém, mudando a tendência, o presidente Biden emitiu uma ordem executiva intitulada Decreto Executivo sobre o Desenvolvimento e uso Seguro e Confiável da Inteligência Artificial (em tradução livre), que estabelece uma série de compromissos voluntários a serem cumpridos pelas empresas que pretendem desenvolver e empregar a tecnologia no país.

Outro exemplo que não se pode deixar de citar é o da China, país com a mais robusta regulação sobre a temática, contando com leis específicas sobre assuntos como recomendação algorítmica e manipulação profunda de conteúdos. A abordagem chinesa, diferentemente da europeia e americana, enxerga a forte atuação estatal como um diferencial apto a promover, em primeiro lugar, o fortalecimento do mercado interno chinês, tendo como consequência uma posição hegemônica no desenvolvimento da tecnologia em perspectiva global.

A estratégica chinesa envolve a aproximação do Estado com as principais empresas de IA do país, o que nos leva a um ponto interessante da discussão sobre a regulação dessa tecnologia. Segundo reportagem do Washington Post, quando a Administração para o Ciberespaço da China (CAC) teve sua primeira reunião com as empresas para discutir a regulação de algoritmos, os representantes estatais “demonstraram pouca compreensão dos detalhes técnicos”, fazendo com que os representantes das empresas empregassem uma combinação de metáforas e linguagem simplificada para abordar o assunto. Isso deixa claro que, em se tratando da regulação da IA (e outras tecnologias emergentes), confiar apenas no aparato estatal para estabelecer normas e diretrizes de desenvolvimento pode ser um fator negativo do ponto de vista da inovação.

Deixar claros os fins da regulação da IA, afinal, é uma tarefa complexa, mas que pode definir os rumos de um país. Enquanto, a título ilustrativo, o AI Act europeu apresenta um desenho rígido, focado estritamente nos direitos fundamentais dos usuários, a abordagem estadunidense tem como premissa principal uma agenda pró-inovação, que se volta à eliminação de potenciais barreiras ao avanço tecnológico. De um lado, o modelo europeu implica alguns problemas, especialmente em razão de sua inflexibilidade quanto às classificações e limitações do uso da IA, além de sanções que podem impedir o investimento em tecnologia; do outro, um modelo autorregulatório, com normas baseadas em consensos, mas que pode acabar por descuidar de determinados direitos e garantias.

No contexto brasileiro, por sua vez, vivenciamos um movimento quase pendular, iniciado pela Estratégia Brasileira de Inteligência Artificial (EBIA), à qual se somou o PL 21/2020, de caráter eminentemente principiológico. Por outro lado, o atual PL 2338/23, é louvável pela instituição de uma comissão de juristas extremamente qualificados para debater o assunto, contando com o entusiasmo salutar do ilustre Presidente Senador Rodrigo Pacheco, tendo produzido uma norma moderna e muito bem estruturada. Se não bastasse, a norma vem sendo objeto de grande debate em Comissão Especial no Senado Federal, demonstrando a maturidade do parlamento e preocupação quanto a matéria tão importante. Com efeito, dentro de algumas preocupações, estão aquelas desenvolvimentistas dentro do dilema secular de inovação e regulação, buscando-se o ponto ideal que não alije o Brasil, que tem enorme potencial na criação de novas tecnologias e ideias da corrida internacional, e preserve a mitigação de riscos, que são sempre potencializados em um país continental, com muitas diferenças raciais e sociais, dentre outras. Assim, na busca de se contribuir para o debate, é imprescindível que o Congresso se debruce na verificação de categorizações e particularidades setoriais, e no contexto sociopolítico econômico, preservando-se o estimulo a inovação e desenvolvimento tecnológico no Brasil.

Nesse sentido, a autorregulação regulada (i.e., com participação de entes privados no processo regulatório, sob supervisão do Estado) representa uma via promissora para fomentar o desenvolvimento ético e responsável da IA, ao mesmo tempo em que haja flexibilidade e adaptabilidade necessárias para a inovação. Diversos fatores podem ser ponderados para fortalecer e apoiar esse enfoque: a participação ativa e multidisciplinar de uma ampla gama de partes interessadas na concepção e construção de ferramentas autorregulatórias para a IA pode potencializar o compromisso e a aceitação dessas iniciativas, o que permite incorporar uma diversidade de perspectivas e conhecimentos, enriquecendo o processo como um todo. Além disso, a busca por abordagens inovadoras é essencial para lidar com os custos percebidos e os ônus associados à implementação de mecanismos de autorregulação.

Na discussão da norma, é imprescindível considerar os diferentes processos de formação de conhecimento existentes na sociedade digital atual. A utilização de ferramentas de autorregulação, adaptadas a contextos e casos de uso específicos, incentiva a adoção voluntária dessas ferramentas. Ao fim e ao cabo, isso permite a adaptação das normas às necessidades singulares das diversas aplicações da IA, estabelecendo um ambiente regulatório que respeita e promove direitos fundamentais e, ao mesmo tempo, estimula o desenvolvimento e a inovação.

*Ricardo Campos, docente na Goethe Universidade Frankfurt am Main e sócio do Warde Advogados

*Rodrigo Badaró, advogado, conselheiro nacional do Ministério Público e conselheiro nacional de proteção de dados (2021/2023)

Sistemas de inteligência artificial se fazem cada vez mais presentes em nosso cotidiano. Entretanto, à medida que a tecnologia avança e se dissemina, surgem preocupações sobre seu impacto nos direitos dos cidadãos, levantando questões éticas, jurídicas e socioeconômicas. Nos últimos anos, esforços têm sido empreendidos para encontrar um equilíbrio adequado entre a inovação tecnológica e a proteção dos interesses públicos e direitos individuais, o que se manifesta tanto por meio de abordagens regulatórias variadas.

Ricardo Campos e Rodrigo Badaró Foto: Arquivo pessoal

Há uma insuperável dificuldade de se estabelecer um consenso que acomode as diferentes noções jurídicas envolvidas na adoção de um regime universalmente aplicável para a IA. Não obstante, algumas iniciativas regulatórias, como as recomendações da Unesco e da OCDE para o desenvolvimento e uso da tecnologia, parecem caminhar em uma mesma direção: conquanto haja divergências quanto ao conteúdo e à forma de implementação das diretrizes, o respeito à privacidade e proteção dos dados pessoais, a necessidade de um regime de responsabilidade, e requisitos de segurança, transparência, explicabilidade e não discriminação parecem representar um denominador comum nos mais diversos instrumentos regulatórios.

O ponto é que, por mais que simbolizem a boa-vontade global para a regulação da IA, esses documentos trazem princípios e compromissos gerais e voluntários, deixando à margem algumas vezes os interesses econômicos e políticos subjacentes à corrida do ouro contemporânea. É diante disso que Estados também buscam organizar estruturas e padrões internos próprios, em conformidade com suas características sociais, econômicas e políticas específicas, seja estabelecendo “meros” princípios éticos que guiem o desenvolvimento da IA, seja definindo regras mais robustas e rígidas.

A União Europeia, por exemplo, tem buscado construir uma abordagem regulatória que promova a adoção da IA, ao mesmo tempo em que aborde uma série de riscos a ela associados. Há uma preocupação com um quadro regulatório que possibilitasse a construção de um ecossistema de confiança entre empresas e consumidores, mas que acelere a adoção da tecnologia no espaço europeu. Para isso, o bloco tem enfrentado o desafio de estabelecer uma definição de IA flexível o suficiente para acomodar a dinamicidade da tecnologia, bem como as vantagens da adoção de uma abordagem baseada em risco, a fim de que seja eficaz sem ser excessivamente prescritiva. É nesse contexto que se dá a publicação, em 2021, da proposta de Regulamento sobre a IA – o chamado AI Act.

Ao contrário da UE, as regulações nos EUA são elaboradas, de maneira geral, a nível estadual e setorial, de forma descentralizada e vertical. Recentemente, porém, mudando a tendência, o presidente Biden emitiu uma ordem executiva intitulada Decreto Executivo sobre o Desenvolvimento e uso Seguro e Confiável da Inteligência Artificial (em tradução livre), que estabelece uma série de compromissos voluntários a serem cumpridos pelas empresas que pretendem desenvolver e empregar a tecnologia no país.

Outro exemplo que não se pode deixar de citar é o da China, país com a mais robusta regulação sobre a temática, contando com leis específicas sobre assuntos como recomendação algorítmica e manipulação profunda de conteúdos. A abordagem chinesa, diferentemente da europeia e americana, enxerga a forte atuação estatal como um diferencial apto a promover, em primeiro lugar, o fortalecimento do mercado interno chinês, tendo como consequência uma posição hegemônica no desenvolvimento da tecnologia em perspectiva global.

A estratégica chinesa envolve a aproximação do Estado com as principais empresas de IA do país, o que nos leva a um ponto interessante da discussão sobre a regulação dessa tecnologia. Segundo reportagem do Washington Post, quando a Administração para o Ciberespaço da China (CAC) teve sua primeira reunião com as empresas para discutir a regulação de algoritmos, os representantes estatais “demonstraram pouca compreensão dos detalhes técnicos”, fazendo com que os representantes das empresas empregassem uma combinação de metáforas e linguagem simplificada para abordar o assunto. Isso deixa claro que, em se tratando da regulação da IA (e outras tecnologias emergentes), confiar apenas no aparato estatal para estabelecer normas e diretrizes de desenvolvimento pode ser um fator negativo do ponto de vista da inovação.

Deixar claros os fins da regulação da IA, afinal, é uma tarefa complexa, mas que pode definir os rumos de um país. Enquanto, a título ilustrativo, o AI Act europeu apresenta um desenho rígido, focado estritamente nos direitos fundamentais dos usuários, a abordagem estadunidense tem como premissa principal uma agenda pró-inovação, que se volta à eliminação de potenciais barreiras ao avanço tecnológico. De um lado, o modelo europeu implica alguns problemas, especialmente em razão de sua inflexibilidade quanto às classificações e limitações do uso da IA, além de sanções que podem impedir o investimento em tecnologia; do outro, um modelo autorregulatório, com normas baseadas em consensos, mas que pode acabar por descuidar de determinados direitos e garantias.

No contexto brasileiro, por sua vez, vivenciamos um movimento quase pendular, iniciado pela Estratégia Brasileira de Inteligência Artificial (EBIA), à qual se somou o PL 21/2020, de caráter eminentemente principiológico. Por outro lado, o atual PL 2338/23, é louvável pela instituição de uma comissão de juristas extremamente qualificados para debater o assunto, contando com o entusiasmo salutar do ilustre Presidente Senador Rodrigo Pacheco, tendo produzido uma norma moderna e muito bem estruturada. Se não bastasse, a norma vem sendo objeto de grande debate em Comissão Especial no Senado Federal, demonstrando a maturidade do parlamento e preocupação quanto a matéria tão importante. Com efeito, dentro de algumas preocupações, estão aquelas desenvolvimentistas dentro do dilema secular de inovação e regulação, buscando-se o ponto ideal que não alije o Brasil, que tem enorme potencial na criação de novas tecnologias e ideias da corrida internacional, e preserve a mitigação de riscos, que são sempre potencializados em um país continental, com muitas diferenças raciais e sociais, dentre outras. Assim, na busca de se contribuir para o debate, é imprescindível que o Congresso se debruce na verificação de categorizações e particularidades setoriais, e no contexto sociopolítico econômico, preservando-se o estimulo a inovação e desenvolvimento tecnológico no Brasil.

Nesse sentido, a autorregulação regulada (i.e., com participação de entes privados no processo regulatório, sob supervisão do Estado) representa uma via promissora para fomentar o desenvolvimento ético e responsável da IA, ao mesmo tempo em que haja flexibilidade e adaptabilidade necessárias para a inovação. Diversos fatores podem ser ponderados para fortalecer e apoiar esse enfoque: a participação ativa e multidisciplinar de uma ampla gama de partes interessadas na concepção e construção de ferramentas autorregulatórias para a IA pode potencializar o compromisso e a aceitação dessas iniciativas, o que permite incorporar uma diversidade de perspectivas e conhecimentos, enriquecendo o processo como um todo. Além disso, a busca por abordagens inovadoras é essencial para lidar com os custos percebidos e os ônus associados à implementação de mecanismos de autorregulação.

Na discussão da norma, é imprescindível considerar os diferentes processos de formação de conhecimento existentes na sociedade digital atual. A utilização de ferramentas de autorregulação, adaptadas a contextos e casos de uso específicos, incentiva a adoção voluntária dessas ferramentas. Ao fim e ao cabo, isso permite a adaptação das normas às necessidades singulares das diversas aplicações da IA, estabelecendo um ambiente regulatório que respeita e promove direitos fundamentais e, ao mesmo tempo, estimula o desenvolvimento e a inovação.

*Ricardo Campos, docente na Goethe Universidade Frankfurt am Main e sócio do Warde Advogados

*Rodrigo Badaró, advogado, conselheiro nacional do Ministério Público e conselheiro nacional de proteção de dados (2021/2023)

Sistemas de inteligência artificial se fazem cada vez mais presentes em nosso cotidiano. Entretanto, à medida que a tecnologia avança e se dissemina, surgem preocupações sobre seu impacto nos direitos dos cidadãos, levantando questões éticas, jurídicas e socioeconômicas. Nos últimos anos, esforços têm sido empreendidos para encontrar um equilíbrio adequado entre a inovação tecnológica e a proteção dos interesses públicos e direitos individuais, o que se manifesta tanto por meio de abordagens regulatórias variadas.

Ricardo Campos e Rodrigo Badaró Foto: Arquivo pessoal

Há uma insuperável dificuldade de se estabelecer um consenso que acomode as diferentes noções jurídicas envolvidas na adoção de um regime universalmente aplicável para a IA. Não obstante, algumas iniciativas regulatórias, como as recomendações da Unesco e da OCDE para o desenvolvimento e uso da tecnologia, parecem caminhar em uma mesma direção: conquanto haja divergências quanto ao conteúdo e à forma de implementação das diretrizes, o respeito à privacidade e proteção dos dados pessoais, a necessidade de um regime de responsabilidade, e requisitos de segurança, transparência, explicabilidade e não discriminação parecem representar um denominador comum nos mais diversos instrumentos regulatórios.

O ponto é que, por mais que simbolizem a boa-vontade global para a regulação da IA, esses documentos trazem princípios e compromissos gerais e voluntários, deixando à margem algumas vezes os interesses econômicos e políticos subjacentes à corrida do ouro contemporânea. É diante disso que Estados também buscam organizar estruturas e padrões internos próprios, em conformidade com suas características sociais, econômicas e políticas específicas, seja estabelecendo “meros” princípios éticos que guiem o desenvolvimento da IA, seja definindo regras mais robustas e rígidas.

A União Europeia, por exemplo, tem buscado construir uma abordagem regulatória que promova a adoção da IA, ao mesmo tempo em que aborde uma série de riscos a ela associados. Há uma preocupação com um quadro regulatório que possibilitasse a construção de um ecossistema de confiança entre empresas e consumidores, mas que acelere a adoção da tecnologia no espaço europeu. Para isso, o bloco tem enfrentado o desafio de estabelecer uma definição de IA flexível o suficiente para acomodar a dinamicidade da tecnologia, bem como as vantagens da adoção de uma abordagem baseada em risco, a fim de que seja eficaz sem ser excessivamente prescritiva. É nesse contexto que se dá a publicação, em 2021, da proposta de Regulamento sobre a IA – o chamado AI Act.

Ao contrário da UE, as regulações nos EUA são elaboradas, de maneira geral, a nível estadual e setorial, de forma descentralizada e vertical. Recentemente, porém, mudando a tendência, o presidente Biden emitiu uma ordem executiva intitulada Decreto Executivo sobre o Desenvolvimento e uso Seguro e Confiável da Inteligência Artificial (em tradução livre), que estabelece uma série de compromissos voluntários a serem cumpridos pelas empresas que pretendem desenvolver e empregar a tecnologia no país.

Outro exemplo que não se pode deixar de citar é o da China, país com a mais robusta regulação sobre a temática, contando com leis específicas sobre assuntos como recomendação algorítmica e manipulação profunda de conteúdos. A abordagem chinesa, diferentemente da europeia e americana, enxerga a forte atuação estatal como um diferencial apto a promover, em primeiro lugar, o fortalecimento do mercado interno chinês, tendo como consequência uma posição hegemônica no desenvolvimento da tecnologia em perspectiva global.

A estratégica chinesa envolve a aproximação do Estado com as principais empresas de IA do país, o que nos leva a um ponto interessante da discussão sobre a regulação dessa tecnologia. Segundo reportagem do Washington Post, quando a Administração para o Ciberespaço da China (CAC) teve sua primeira reunião com as empresas para discutir a regulação de algoritmos, os representantes estatais “demonstraram pouca compreensão dos detalhes técnicos”, fazendo com que os representantes das empresas empregassem uma combinação de metáforas e linguagem simplificada para abordar o assunto. Isso deixa claro que, em se tratando da regulação da IA (e outras tecnologias emergentes), confiar apenas no aparato estatal para estabelecer normas e diretrizes de desenvolvimento pode ser um fator negativo do ponto de vista da inovação.

Deixar claros os fins da regulação da IA, afinal, é uma tarefa complexa, mas que pode definir os rumos de um país. Enquanto, a título ilustrativo, o AI Act europeu apresenta um desenho rígido, focado estritamente nos direitos fundamentais dos usuários, a abordagem estadunidense tem como premissa principal uma agenda pró-inovação, que se volta à eliminação de potenciais barreiras ao avanço tecnológico. De um lado, o modelo europeu implica alguns problemas, especialmente em razão de sua inflexibilidade quanto às classificações e limitações do uso da IA, além de sanções que podem impedir o investimento em tecnologia; do outro, um modelo autorregulatório, com normas baseadas em consensos, mas que pode acabar por descuidar de determinados direitos e garantias.

No contexto brasileiro, por sua vez, vivenciamos um movimento quase pendular, iniciado pela Estratégia Brasileira de Inteligência Artificial (EBIA), à qual se somou o PL 21/2020, de caráter eminentemente principiológico. Por outro lado, o atual PL 2338/23, é louvável pela instituição de uma comissão de juristas extremamente qualificados para debater o assunto, contando com o entusiasmo salutar do ilustre Presidente Senador Rodrigo Pacheco, tendo produzido uma norma moderna e muito bem estruturada. Se não bastasse, a norma vem sendo objeto de grande debate em Comissão Especial no Senado Federal, demonstrando a maturidade do parlamento e preocupação quanto a matéria tão importante. Com efeito, dentro de algumas preocupações, estão aquelas desenvolvimentistas dentro do dilema secular de inovação e regulação, buscando-se o ponto ideal que não alije o Brasil, que tem enorme potencial na criação de novas tecnologias e ideias da corrida internacional, e preserve a mitigação de riscos, que são sempre potencializados em um país continental, com muitas diferenças raciais e sociais, dentre outras. Assim, na busca de se contribuir para o debate, é imprescindível que o Congresso se debruce na verificação de categorizações e particularidades setoriais, e no contexto sociopolítico econômico, preservando-se o estimulo a inovação e desenvolvimento tecnológico no Brasil.

Nesse sentido, a autorregulação regulada (i.e., com participação de entes privados no processo regulatório, sob supervisão do Estado) representa uma via promissora para fomentar o desenvolvimento ético e responsável da IA, ao mesmo tempo em que haja flexibilidade e adaptabilidade necessárias para a inovação. Diversos fatores podem ser ponderados para fortalecer e apoiar esse enfoque: a participação ativa e multidisciplinar de uma ampla gama de partes interessadas na concepção e construção de ferramentas autorregulatórias para a IA pode potencializar o compromisso e a aceitação dessas iniciativas, o que permite incorporar uma diversidade de perspectivas e conhecimentos, enriquecendo o processo como um todo. Além disso, a busca por abordagens inovadoras é essencial para lidar com os custos percebidos e os ônus associados à implementação de mecanismos de autorregulação.

Na discussão da norma, é imprescindível considerar os diferentes processos de formação de conhecimento existentes na sociedade digital atual. A utilização de ferramentas de autorregulação, adaptadas a contextos e casos de uso específicos, incentiva a adoção voluntária dessas ferramentas. Ao fim e ao cabo, isso permite a adaptação das normas às necessidades singulares das diversas aplicações da IA, estabelecendo um ambiente regulatório que respeita e promove direitos fundamentais e, ao mesmo tempo, estimula o desenvolvimento e a inovação.

*Ricardo Campos, docente na Goethe Universidade Frankfurt am Main e sócio do Warde Advogados

*Rodrigo Badaró, advogado, conselheiro nacional do Ministério Público e conselheiro nacional de proteção de dados (2021/2023)

Opinião por Ricardo Campos e Rodrigo Badaró*

Atualizamos nossa política de cookies

Ao utilizar nossos serviços, você aceita a política de monitoramento de cookies.