Em todo o mundo, os sistemas de saúde passam por um intenso processo de transformação digital, impulsionado por ferramentas tecnológicas como inteligência artificial, internet das coisas (IoT) e blockchain. Embora este movimento demande mudanças relevantes na legislação setorial, o que vem acontecendo gradualmente no Brasil e em outros países é que a regulamentação de aspectos éticos e sanitários sobre a inteligência artificial na área de saúde segue em aberto.
Em fevereiro passado, a União Europeia aprovou o AI Act, uma legislação inédita que estabelece requisitos, regras de governança e medidas que devem ser adotadas por empresas voltadas para o desenvolvimento de sistemas de inteligência artificial.
O Brasil, por meio do Congresso Nacional, segue uma linha semelhante com o projeto de lei nº 2.338/2023, resultado do trabalho da Comissão Interna Temporária de Inteligência Artificial no Brasil (CTIA), instalada no Senado Federal.
O texto, atualmente em discussão, estabelece a inteligência artificial como um sistema computacional, com graus diferentes de autonomia, desenhado para inferir como atingir um dado conjunto de objetivos, utilizando abordagens baseadas em aprendizagem de máquina e/ou lógica e representação do conhecimento, por meio de dados de entrada provenientes de máquinas ou humanos, com o objetivo de produzir previsões, recomendações ou decisões que possam influenciar o ambiente virtual ou real.
Em grande medida, o projeto de lei nº 2.338/2023 trata dos princípios para uso ético de sistemas de inteligência artificial, como a supervisão humana efetiva, a rastreabilidade, a não discriminação, a transparência, a explicabilidade, a auditabilidade, a confiabilidade, a accountability, a responsabilização, a prevenção e a mitigação. O texto apresenta ainda os direitos conferidos aos usuários – como privacidade, proteção de dados pessoais, não-discriminação e correção de vieses discriminatórios – que podem ser considerados os pontos de maior preocupação associados ao uso da inteligência artificial na saúde.
Em sua versão mais recente, o Senado tomou uma decisão bastante acertada ao excluir o trecho que genericamente definia algoritmos de saúde como sendo de alto risco, o que poderia resultar na obrigatoriedade de medidas de governança potencialmente desproporcionais em determinados casos.
Dadas às particularidades da indústria, uma regulamentação setorial adequada pode contribuir para segurança jurídica a respeito desse tema.
A Anvisa, por exemplo, poderia endereçar requisitos para uso de inteligência artificial em softwares médicos na própria norma específica para esse tipo de produto. A tendência é que a autoridade analise o impacto regulatório, o que permitirá uma participação ativa de todos os stakeholders do setor.
É provável também que a agência busque convergência regulatória com as diretrizes do International Medical Device Regulators Forum, que discute uma proposta de framework com o objetivo de regular algoritmos de inteligência artificial e machine learning desde 2019.
Já o Ministério da Saúde poderia avaliar a necessidade de regulamentar a aplicação da inteligência artificial nas soluções na área da saúde pública, gestão administrativa e assistencial do Sistema Único de Saúde (SUS). Um benchmark a ser considerado é o Código de Conduta para Uso de Inteligência Artificial e Tecnologias Baseadas em Dados do National Health Sistem (NHS), o sistema de saúde britânico, que estabelece o padrão-ouro a fim de que desenvolvedores e prestadores de serviço inovem de forma ética e com qualidade técnica.
Além disso, os conselhos profissionais de saúde, dentro das suas competências, podem ter um papel estratégico na definição de parâmetros educacionais para o uso destas e outras tecnologias associadas à prática assistencial.
Em qualquer cenário, para que essas futuras regulações sejam adequadas ao nosso estágio tecnológico, a figura do sandbox regulatório é promissora na resolução do desafio de regular o que ainda não conhecemos da inteligência artificial.
Trata-se de um ambiente regulatório experimental que permite a suspensão temporária de determinados requisitos ou proibições com o objetivo de permitir aos empreendedores testar o lançamento de produtos e serviços no mercado, com menos burocracia e mais flexibilidade, ainda que com o monitoramento e a orientação dos reguladores. O maior desafio nesta nova realidade será o timing para adequação das normas ao estágio tecnológico mais recente das soluções.
Convidado deste artigo
As informações e opiniões formadas neste artigo são de responsabilidade única do autor.
Este texto não reflete, necessariamente, a opinião do Estadão.
Os comentários são exclusivos para assinantes do Estadão.