Senado apresenta relatório provisório de projeto para regular inteligência artificial; entenda


Texto é alvo de críticas sobretudo ao permitir uso do sistema de reconhecimento facial na segurança pública

Por Levy Teles

BRASÍLIA — O texto do projeto de lei que trata da regulação de inteligência artificial (IA) ainda possui deficiências e apresenta retrocessos, apontam especialistas. A regulação de sistemas de reconhecimento facial é o ponto que traz maior preocupação para acadêmicos e pesquisadores ouvidos pelo Estadão.

O relatório preliminar apresentado pelo senador Eduardo Gomes (PL-TO) na Comissão Temporária Interna sobre Inteligência Artificial no Brasil nesta quarta-feira, 24, proíbe o uso de sistemas do tipo, mas abre exceção para o uso na segurança pública, apontado como muito suscetível a erros.

continua após a publicidade
O presidente da Comissão Temporária Interna sobre Inteligência Artificial no Brasil expõe relatório de Eduardo Gomes (à esq.); governo acompanha a pauta e o ministro Alexandre Padilha (ao centro) acompanhou sessão desta quarta-feira. Foto: Roque de Sá/Agência Senado

“Há muitas denúncias de maus usos dessa tecnologia, com uma alta taxa de erros e falsos positivos, além do mau uso por forças de segurança pública”, afirma Bianca Kremer, pesquisadora na Fundação Getulio Vargas (FGV) e conselheira do Comitê Gestor da Internet (CGI). “Pela primeira vez, diferente dos projetos anteriores, neste PL temos um endereçamento na questão da segurança pública fazendo um retrocesso.”

“Essas exceções viabilizam o uso das tecnologias notadamente nocivas, colocando a população brasileira em risco de curto, médio e longo prazo”, completa Tarcízio Silva, pesquisador na Fundação Mozilla.

continua após a publicidade

O novo texto incorpora trechos de outras proposições já apresentadas na Câmara e no Senado, além de fazer algumas atualizações em conceitos para modernizar o texto, algo que foi bem recebido entre alguns pesquisadores.

Eduardo Gomes também ouviu o governo para elaborar o texto do projeto de lei. Segundo ele, participaram do processo os ministros Alexandre Padilha (Relações Institucionais), Ricardo Lewandowski (Justiça e Segurança Pública) e Paulo Pimenta (Comunicação Social). Quando ministro da Justiça, Flávio Dino também participou do diálogo.

Padilha sinalizou que a regulação da inteligência artificial é um tema de interesse do presidente Luiz Inácio Lula da Silva.

continua após a publicidade

Veja os principais pontos presentes no projeto de lei:

Sistema Nacional de Regulação e Governança de Inteligência Artificial é a responsável por supervisionar e fiscalizar IA

O projeto de lei cria o Sistema Nacional de Regulação e Governança de Inteligência Artificial (SIA), órgão que fará a supervisão e fiscalização de inteligências artificiais, bem como de seus desenvolvedores e fornecedores.

continua após a publicidade

O SIA é coordenado por uma autoridade competente designada pelo Poder Executivo e também tem a participação de órgãos estatais reguladores, que podem ser, entre outras, entidades autorregulatórias (entenda mais abaixo), o Conselho Administrativo de Defesa Econômica (Cade). As multas aplicadas pelo SIA podem custar até R$ 50 milhões.

Há críticas de que o modelo prejudique a fiscalização.

Uso de sistema de reconhecimento facial é permitido na segurança pública

continua após a publicidade

O novo texto proíbe o uso de sistemas de tecnologia facial, mas abre a exceção no campo da segurança pública.

A proposição permite o uso no caso de instrução de inquérito ou processo criminal, mediante prévia autorização judicial; no caso de busca de vítimas de crimes, de pessoas desaparecidas ou em circunstâncias que envolvam ameaça grave de iminente risco à vida ou à integridade física de pessoas; no caso de investigação e repressão de flagrantes delito e no caso de foragidos da prisão que precisem ser recapturados.

IAs deverão ser avaliadas por grau de risco

continua após a publicidade

Desenvolvedores, fornecedores de sistemas de inteligência artificial precisam avaliar preliminarmente o grau de risco que uma inteligência artificial pode causar. Há uma série de restrições e limitações para as IAs de alto risco ou risco excessivo.

Alto risco

Caberá ao Sistema Nacional de Regulação e Governança de Inteligência Artificial (SIA) definir um sistema como de alto risco obedecendo diferentes critérios. Haverá, anteriormente, a classificação de risco por consulta pública.

Empresas que gerem inteligências artificiais de auto risco, por sua vez, precisarão indicar um encarregado de governança, submetendo a tecnologia, entre outros, para testes de confiabilidade, gestão de dados para mitigar e prevenir vieses discriminatórios e submissão à supervisão humana.

A lista de sistemas de alto risco é definida pela SIA. Está, entre eles, os carros automáticos, por exemplo.

Caso o poder público contrate, desenvolva ou utilize IAs de alto risco, será preciso fazer consulta pública sobre a utilização planejada da IA caso gere efeitos discriminatórios em populações vulneráveis.

Risco excessivo

Há cinco caracterizações do que seriam inteligências artificiais de risco excessivo. Elas são proibidas pela lei. São essas: técnicas ocultas que manipulem o comportamento de usuários de modo que afete a segurança ou saúde, que explorem vulnerabilidades de pessoas (como deficiência física ou mental), o uso do poder público de ranquear pessoas por seu comportamento, o uso que permita a produção e disseminação de material que caracteriza ou represente abuso ou exploração sexual infantil, elaboração de sistema que tente avaliar risco de cometimento de crime, infrações ou reincidência e sistemas de armas autônomas, como drones.

Neste último caso, a lei abre brechas para o uso, contanto que a armas autônomas possam garantir o controle humano em alguns níveis. Há uma outra série de normas que regulam a produção delas.

Desenvolvedores e fornecedores de IA precisam comunicar incidentes graves de segurança

O órgão responsável pela SIA deverá ser informado por responsáveis sobre IA em relação à ocorrência de graves incidentes de segurança, quando houver risco à vida ou a integridade física de pessoas ou causar dano a propriedades ao meio ambiente ou até disseminar desinformação e discursos de ódio e que causem violência.

Avaliação de impacto algorítmico

Desenvolvedores, fornecedores e autoridades deverão compartilhar avaliações preliminares feitas por especialistas sobre a autoridade competente o impacto aos direitos fundamentais, avaliar possíveis potencializadores para impactos positivos e de uma IA e quais as medidas preventivas de reversão a impactos negativos.

O texto diz que a avaliação deve incluir a participação pública de diferentes segmentos sociais afetados, especialmente de grupos vulneráveis que podem ser atingidos pela tecnologia.

Texto permite permissão ou supervisão humana, mas não exige caso implementação seja “impossível”

Ao mesmo tempo que a proposição garante o direito de que uma inteligência artificial seja supervisionada por um ser humano, especialmente em casos de inteligência artificial de alto risco, o texto permite a não exigência da supervisão caso a implementação da IA seja “comprovadamente impossível”.

Essa concessão é criticada por especialistas. “A revisão ou intervenção humana sempre é possível, considerando que as atividades-fim buscas pelos sistemas de inteligência artificial podem ser produzidas de outra forma”, diz Tarcízio Silva.

Responsabilizações civis para os desenvolvedores ou fornecedores de inteligência artificial

Fornecedores ou operadores de sistema de inteligência artificial que causarem dano patrimonial, moral, individual ou coletivo é obrigado a fazer a reparação à pessoa afetada. Em casos de IAs de alto risco ou risco excessivo, o fornecedor responde objetivamente pelos danos causados, “na medida de sua participação no dano”.

Os desenvolvedores ou operadores não serão responsabilizados se comprovarem que não colocaram em circulação a IA ou demonstrarem que o dano foi decorrente pelo uso da vítima ou de outro caso externo.

Autorregulação

Desenvolvedores e fornecedores de inteligência artificial podem se associar para formar uma pessoa jurídica com o fim de promover a autorregulação de sistemas de inteligência artificial. A autorregulação pode estabelecer critérios técnicos dos sistemas, compartilhar experiências sobre o uso de IA e definir estruturas de governança previstas na própria lei.

“O texto inova ao trazer robustez normativa para disciplinar a autorregulação e trazer a previsão legal de alguns impactos que essas diretrizes normativas geradas por essa estrutura autorregulatória organizada terá na vida das pessoas que atuam nesse setor”, diz Rafaela Ferreira, pesquisadora do Instituto de Referência em Internet e Sociedade (IRIS).

Estímulo à inovação

O relator do atual projeto, Eduardo Gomes (PL-TO), ouviu a apelos da Câmara e incluiu no projeto medidas que estimulam a produção de novas tecnologias. O governo pode permitir que empresas operem em sandbox regulatório, isto é, atue com regras diferentes das demais por um período de período delimitado. Quem estiver no sandbox ainda continua a ser responsável por quaisquer danos infligidos a terceiros em resultado da experimentação que ocorre no ambiente de testagem

O órgão coordenador da SIA tem o poder de sustar as normas autorregulatórias.

BRASÍLIA — O texto do projeto de lei que trata da regulação de inteligência artificial (IA) ainda possui deficiências e apresenta retrocessos, apontam especialistas. A regulação de sistemas de reconhecimento facial é o ponto que traz maior preocupação para acadêmicos e pesquisadores ouvidos pelo Estadão.

O relatório preliminar apresentado pelo senador Eduardo Gomes (PL-TO) na Comissão Temporária Interna sobre Inteligência Artificial no Brasil nesta quarta-feira, 24, proíbe o uso de sistemas do tipo, mas abre exceção para o uso na segurança pública, apontado como muito suscetível a erros.

O presidente da Comissão Temporária Interna sobre Inteligência Artificial no Brasil expõe relatório de Eduardo Gomes (à esq.); governo acompanha a pauta e o ministro Alexandre Padilha (ao centro) acompanhou sessão desta quarta-feira. Foto: Roque de Sá/Agência Senado

“Há muitas denúncias de maus usos dessa tecnologia, com uma alta taxa de erros e falsos positivos, além do mau uso por forças de segurança pública”, afirma Bianca Kremer, pesquisadora na Fundação Getulio Vargas (FGV) e conselheira do Comitê Gestor da Internet (CGI). “Pela primeira vez, diferente dos projetos anteriores, neste PL temos um endereçamento na questão da segurança pública fazendo um retrocesso.”

“Essas exceções viabilizam o uso das tecnologias notadamente nocivas, colocando a população brasileira em risco de curto, médio e longo prazo”, completa Tarcízio Silva, pesquisador na Fundação Mozilla.

O novo texto incorpora trechos de outras proposições já apresentadas na Câmara e no Senado, além de fazer algumas atualizações em conceitos para modernizar o texto, algo que foi bem recebido entre alguns pesquisadores.

Eduardo Gomes também ouviu o governo para elaborar o texto do projeto de lei. Segundo ele, participaram do processo os ministros Alexandre Padilha (Relações Institucionais), Ricardo Lewandowski (Justiça e Segurança Pública) e Paulo Pimenta (Comunicação Social). Quando ministro da Justiça, Flávio Dino também participou do diálogo.

Padilha sinalizou que a regulação da inteligência artificial é um tema de interesse do presidente Luiz Inácio Lula da Silva.

Veja os principais pontos presentes no projeto de lei:

Sistema Nacional de Regulação e Governança de Inteligência Artificial é a responsável por supervisionar e fiscalizar IA

O projeto de lei cria o Sistema Nacional de Regulação e Governança de Inteligência Artificial (SIA), órgão que fará a supervisão e fiscalização de inteligências artificiais, bem como de seus desenvolvedores e fornecedores.

O SIA é coordenado por uma autoridade competente designada pelo Poder Executivo e também tem a participação de órgãos estatais reguladores, que podem ser, entre outras, entidades autorregulatórias (entenda mais abaixo), o Conselho Administrativo de Defesa Econômica (Cade). As multas aplicadas pelo SIA podem custar até R$ 50 milhões.

Há críticas de que o modelo prejudique a fiscalização.

Uso de sistema de reconhecimento facial é permitido na segurança pública

O novo texto proíbe o uso de sistemas de tecnologia facial, mas abre a exceção no campo da segurança pública.

A proposição permite o uso no caso de instrução de inquérito ou processo criminal, mediante prévia autorização judicial; no caso de busca de vítimas de crimes, de pessoas desaparecidas ou em circunstâncias que envolvam ameaça grave de iminente risco à vida ou à integridade física de pessoas; no caso de investigação e repressão de flagrantes delito e no caso de foragidos da prisão que precisem ser recapturados.

IAs deverão ser avaliadas por grau de risco

Desenvolvedores, fornecedores de sistemas de inteligência artificial precisam avaliar preliminarmente o grau de risco que uma inteligência artificial pode causar. Há uma série de restrições e limitações para as IAs de alto risco ou risco excessivo.

Alto risco

Caberá ao Sistema Nacional de Regulação e Governança de Inteligência Artificial (SIA) definir um sistema como de alto risco obedecendo diferentes critérios. Haverá, anteriormente, a classificação de risco por consulta pública.

Empresas que gerem inteligências artificiais de auto risco, por sua vez, precisarão indicar um encarregado de governança, submetendo a tecnologia, entre outros, para testes de confiabilidade, gestão de dados para mitigar e prevenir vieses discriminatórios e submissão à supervisão humana.

A lista de sistemas de alto risco é definida pela SIA. Está, entre eles, os carros automáticos, por exemplo.

Caso o poder público contrate, desenvolva ou utilize IAs de alto risco, será preciso fazer consulta pública sobre a utilização planejada da IA caso gere efeitos discriminatórios em populações vulneráveis.

Risco excessivo

Há cinco caracterizações do que seriam inteligências artificiais de risco excessivo. Elas são proibidas pela lei. São essas: técnicas ocultas que manipulem o comportamento de usuários de modo que afete a segurança ou saúde, que explorem vulnerabilidades de pessoas (como deficiência física ou mental), o uso do poder público de ranquear pessoas por seu comportamento, o uso que permita a produção e disseminação de material que caracteriza ou represente abuso ou exploração sexual infantil, elaboração de sistema que tente avaliar risco de cometimento de crime, infrações ou reincidência e sistemas de armas autônomas, como drones.

Neste último caso, a lei abre brechas para o uso, contanto que a armas autônomas possam garantir o controle humano em alguns níveis. Há uma outra série de normas que regulam a produção delas.

Desenvolvedores e fornecedores de IA precisam comunicar incidentes graves de segurança

O órgão responsável pela SIA deverá ser informado por responsáveis sobre IA em relação à ocorrência de graves incidentes de segurança, quando houver risco à vida ou a integridade física de pessoas ou causar dano a propriedades ao meio ambiente ou até disseminar desinformação e discursos de ódio e que causem violência.

Avaliação de impacto algorítmico

Desenvolvedores, fornecedores e autoridades deverão compartilhar avaliações preliminares feitas por especialistas sobre a autoridade competente o impacto aos direitos fundamentais, avaliar possíveis potencializadores para impactos positivos e de uma IA e quais as medidas preventivas de reversão a impactos negativos.

O texto diz que a avaliação deve incluir a participação pública de diferentes segmentos sociais afetados, especialmente de grupos vulneráveis que podem ser atingidos pela tecnologia.

Texto permite permissão ou supervisão humana, mas não exige caso implementação seja “impossível”

Ao mesmo tempo que a proposição garante o direito de que uma inteligência artificial seja supervisionada por um ser humano, especialmente em casos de inteligência artificial de alto risco, o texto permite a não exigência da supervisão caso a implementação da IA seja “comprovadamente impossível”.

Essa concessão é criticada por especialistas. “A revisão ou intervenção humana sempre é possível, considerando que as atividades-fim buscas pelos sistemas de inteligência artificial podem ser produzidas de outra forma”, diz Tarcízio Silva.

Responsabilizações civis para os desenvolvedores ou fornecedores de inteligência artificial

Fornecedores ou operadores de sistema de inteligência artificial que causarem dano patrimonial, moral, individual ou coletivo é obrigado a fazer a reparação à pessoa afetada. Em casos de IAs de alto risco ou risco excessivo, o fornecedor responde objetivamente pelos danos causados, “na medida de sua participação no dano”.

Os desenvolvedores ou operadores não serão responsabilizados se comprovarem que não colocaram em circulação a IA ou demonstrarem que o dano foi decorrente pelo uso da vítima ou de outro caso externo.

Autorregulação

Desenvolvedores e fornecedores de inteligência artificial podem se associar para formar uma pessoa jurídica com o fim de promover a autorregulação de sistemas de inteligência artificial. A autorregulação pode estabelecer critérios técnicos dos sistemas, compartilhar experiências sobre o uso de IA e definir estruturas de governança previstas na própria lei.

“O texto inova ao trazer robustez normativa para disciplinar a autorregulação e trazer a previsão legal de alguns impactos que essas diretrizes normativas geradas por essa estrutura autorregulatória organizada terá na vida das pessoas que atuam nesse setor”, diz Rafaela Ferreira, pesquisadora do Instituto de Referência em Internet e Sociedade (IRIS).

Estímulo à inovação

O relator do atual projeto, Eduardo Gomes (PL-TO), ouviu a apelos da Câmara e incluiu no projeto medidas que estimulam a produção de novas tecnologias. O governo pode permitir que empresas operem em sandbox regulatório, isto é, atue com regras diferentes das demais por um período de período delimitado. Quem estiver no sandbox ainda continua a ser responsável por quaisquer danos infligidos a terceiros em resultado da experimentação que ocorre no ambiente de testagem

O órgão coordenador da SIA tem o poder de sustar as normas autorregulatórias.

BRASÍLIA — O texto do projeto de lei que trata da regulação de inteligência artificial (IA) ainda possui deficiências e apresenta retrocessos, apontam especialistas. A regulação de sistemas de reconhecimento facial é o ponto que traz maior preocupação para acadêmicos e pesquisadores ouvidos pelo Estadão.

O relatório preliminar apresentado pelo senador Eduardo Gomes (PL-TO) na Comissão Temporária Interna sobre Inteligência Artificial no Brasil nesta quarta-feira, 24, proíbe o uso de sistemas do tipo, mas abre exceção para o uso na segurança pública, apontado como muito suscetível a erros.

O presidente da Comissão Temporária Interna sobre Inteligência Artificial no Brasil expõe relatório de Eduardo Gomes (à esq.); governo acompanha a pauta e o ministro Alexandre Padilha (ao centro) acompanhou sessão desta quarta-feira. Foto: Roque de Sá/Agência Senado

“Há muitas denúncias de maus usos dessa tecnologia, com uma alta taxa de erros e falsos positivos, além do mau uso por forças de segurança pública”, afirma Bianca Kremer, pesquisadora na Fundação Getulio Vargas (FGV) e conselheira do Comitê Gestor da Internet (CGI). “Pela primeira vez, diferente dos projetos anteriores, neste PL temos um endereçamento na questão da segurança pública fazendo um retrocesso.”

“Essas exceções viabilizam o uso das tecnologias notadamente nocivas, colocando a população brasileira em risco de curto, médio e longo prazo”, completa Tarcízio Silva, pesquisador na Fundação Mozilla.

O novo texto incorpora trechos de outras proposições já apresentadas na Câmara e no Senado, além de fazer algumas atualizações em conceitos para modernizar o texto, algo que foi bem recebido entre alguns pesquisadores.

Eduardo Gomes também ouviu o governo para elaborar o texto do projeto de lei. Segundo ele, participaram do processo os ministros Alexandre Padilha (Relações Institucionais), Ricardo Lewandowski (Justiça e Segurança Pública) e Paulo Pimenta (Comunicação Social). Quando ministro da Justiça, Flávio Dino também participou do diálogo.

Padilha sinalizou que a regulação da inteligência artificial é um tema de interesse do presidente Luiz Inácio Lula da Silva.

Veja os principais pontos presentes no projeto de lei:

Sistema Nacional de Regulação e Governança de Inteligência Artificial é a responsável por supervisionar e fiscalizar IA

O projeto de lei cria o Sistema Nacional de Regulação e Governança de Inteligência Artificial (SIA), órgão que fará a supervisão e fiscalização de inteligências artificiais, bem como de seus desenvolvedores e fornecedores.

O SIA é coordenado por uma autoridade competente designada pelo Poder Executivo e também tem a participação de órgãos estatais reguladores, que podem ser, entre outras, entidades autorregulatórias (entenda mais abaixo), o Conselho Administrativo de Defesa Econômica (Cade). As multas aplicadas pelo SIA podem custar até R$ 50 milhões.

Há críticas de que o modelo prejudique a fiscalização.

Uso de sistema de reconhecimento facial é permitido na segurança pública

O novo texto proíbe o uso de sistemas de tecnologia facial, mas abre a exceção no campo da segurança pública.

A proposição permite o uso no caso de instrução de inquérito ou processo criminal, mediante prévia autorização judicial; no caso de busca de vítimas de crimes, de pessoas desaparecidas ou em circunstâncias que envolvam ameaça grave de iminente risco à vida ou à integridade física de pessoas; no caso de investigação e repressão de flagrantes delito e no caso de foragidos da prisão que precisem ser recapturados.

IAs deverão ser avaliadas por grau de risco

Desenvolvedores, fornecedores de sistemas de inteligência artificial precisam avaliar preliminarmente o grau de risco que uma inteligência artificial pode causar. Há uma série de restrições e limitações para as IAs de alto risco ou risco excessivo.

Alto risco

Caberá ao Sistema Nacional de Regulação e Governança de Inteligência Artificial (SIA) definir um sistema como de alto risco obedecendo diferentes critérios. Haverá, anteriormente, a classificação de risco por consulta pública.

Empresas que gerem inteligências artificiais de auto risco, por sua vez, precisarão indicar um encarregado de governança, submetendo a tecnologia, entre outros, para testes de confiabilidade, gestão de dados para mitigar e prevenir vieses discriminatórios e submissão à supervisão humana.

A lista de sistemas de alto risco é definida pela SIA. Está, entre eles, os carros automáticos, por exemplo.

Caso o poder público contrate, desenvolva ou utilize IAs de alto risco, será preciso fazer consulta pública sobre a utilização planejada da IA caso gere efeitos discriminatórios em populações vulneráveis.

Risco excessivo

Há cinco caracterizações do que seriam inteligências artificiais de risco excessivo. Elas são proibidas pela lei. São essas: técnicas ocultas que manipulem o comportamento de usuários de modo que afete a segurança ou saúde, que explorem vulnerabilidades de pessoas (como deficiência física ou mental), o uso do poder público de ranquear pessoas por seu comportamento, o uso que permita a produção e disseminação de material que caracteriza ou represente abuso ou exploração sexual infantil, elaboração de sistema que tente avaliar risco de cometimento de crime, infrações ou reincidência e sistemas de armas autônomas, como drones.

Neste último caso, a lei abre brechas para o uso, contanto que a armas autônomas possam garantir o controle humano em alguns níveis. Há uma outra série de normas que regulam a produção delas.

Desenvolvedores e fornecedores de IA precisam comunicar incidentes graves de segurança

O órgão responsável pela SIA deverá ser informado por responsáveis sobre IA em relação à ocorrência de graves incidentes de segurança, quando houver risco à vida ou a integridade física de pessoas ou causar dano a propriedades ao meio ambiente ou até disseminar desinformação e discursos de ódio e que causem violência.

Avaliação de impacto algorítmico

Desenvolvedores, fornecedores e autoridades deverão compartilhar avaliações preliminares feitas por especialistas sobre a autoridade competente o impacto aos direitos fundamentais, avaliar possíveis potencializadores para impactos positivos e de uma IA e quais as medidas preventivas de reversão a impactos negativos.

O texto diz que a avaliação deve incluir a participação pública de diferentes segmentos sociais afetados, especialmente de grupos vulneráveis que podem ser atingidos pela tecnologia.

Texto permite permissão ou supervisão humana, mas não exige caso implementação seja “impossível”

Ao mesmo tempo que a proposição garante o direito de que uma inteligência artificial seja supervisionada por um ser humano, especialmente em casos de inteligência artificial de alto risco, o texto permite a não exigência da supervisão caso a implementação da IA seja “comprovadamente impossível”.

Essa concessão é criticada por especialistas. “A revisão ou intervenção humana sempre é possível, considerando que as atividades-fim buscas pelos sistemas de inteligência artificial podem ser produzidas de outra forma”, diz Tarcízio Silva.

Responsabilizações civis para os desenvolvedores ou fornecedores de inteligência artificial

Fornecedores ou operadores de sistema de inteligência artificial que causarem dano patrimonial, moral, individual ou coletivo é obrigado a fazer a reparação à pessoa afetada. Em casos de IAs de alto risco ou risco excessivo, o fornecedor responde objetivamente pelos danos causados, “na medida de sua participação no dano”.

Os desenvolvedores ou operadores não serão responsabilizados se comprovarem que não colocaram em circulação a IA ou demonstrarem que o dano foi decorrente pelo uso da vítima ou de outro caso externo.

Autorregulação

Desenvolvedores e fornecedores de inteligência artificial podem se associar para formar uma pessoa jurídica com o fim de promover a autorregulação de sistemas de inteligência artificial. A autorregulação pode estabelecer critérios técnicos dos sistemas, compartilhar experiências sobre o uso de IA e definir estruturas de governança previstas na própria lei.

“O texto inova ao trazer robustez normativa para disciplinar a autorregulação e trazer a previsão legal de alguns impactos que essas diretrizes normativas geradas por essa estrutura autorregulatória organizada terá na vida das pessoas que atuam nesse setor”, diz Rafaela Ferreira, pesquisadora do Instituto de Referência em Internet e Sociedade (IRIS).

Estímulo à inovação

O relator do atual projeto, Eduardo Gomes (PL-TO), ouviu a apelos da Câmara e incluiu no projeto medidas que estimulam a produção de novas tecnologias. O governo pode permitir que empresas operem em sandbox regulatório, isto é, atue com regras diferentes das demais por um período de período delimitado. Quem estiver no sandbox ainda continua a ser responsável por quaisquer danos infligidos a terceiros em resultado da experimentação que ocorre no ambiente de testagem

O órgão coordenador da SIA tem o poder de sustar as normas autorregulatórias.

Atualizamos nossa política de cookies

Ao utilizar nossos serviços, você aceita a política de monitoramento de cookies.