Foto do(a) page

Conheça o Espaço Aberto na editoria de Opinião do Estadão. Veja análises e artigos de opinião em colunas escritas por convidados e publicadas pelo Estadão.

Opinião | Após dosimetria da LGPD, o que vem pela frente?

Anteprojeto da LGPD Penal traz um novo capítulo ao dilema no Brasil entre permitir ou proibir reconhecimento facial para fins de segurança pública

Por Alexander Coelho

A Lei Geral de Proteção de Dados (LGPD) trouxe um novo paradigma que busca harmonizar a proteção dos direitos dos indivíduos e a segurança jurídica nas relações permeadas pelo tratamento de dados pessoais, num mundo cada vez mais digital e hiperconectado.

No entanto, a LGPD deixou algumas lacunas. O artigo 4.º, inciso III, alínea “a” da LGPD, por exemplo, exclui do seu escopo de aplicação o tratamento de dados voltados para a segurança pública, ressaltando a necessidade de uma lei que tratasse do tema.

Neste cenário surgiu o anteprojeto da chamada LGPD Penal, que traz em seu conteúdo duas proibições ao uso de tecnologias de monitoramento. O anteprojeto surge para conferir um novo capítulo ao dilema no Brasil entre proibir ou permitir o reconhecimento facial para fins de segurança pública.

O projeto de LGPD Penal pode representar uma importante ferramenta de controle e garantia do cumprimento das normas estabelecidas pela LGPD, especialmente em relação ao uso da tecnologia de reconhecimento facial. O projeto prevê a criação de sanções criminais para quem violar as normas estabelecidas pela LGPD, como a coleta e o uso indevido de dados pessoais.

Além disso, o projeto também estabelece a responsabilidade penal das empresas que utilizam tecnologias de reconhecimento facial sem o devido consentimento dos titulares de dados. Com isso, as empresas que utilizarem essa tecnologia deverão obter o consentimento expresso dos titulares de dados.

Outro tema importante que surge no horizonte, principalmente quando falamos em reconhecimento facial, é a chamada inteligência artificial (IA). Nos últimos anos, a IA vem transformando a maneira como vivemos, trabalhamos e nos comunicamos. Ela já está presente em nossa vida diária, em assistentes pessoais como Siri e Alexa, bem como em carros autônomos e na tecnologia de reconhecimento facial. A IA também está revolucionando setores como saúde, finanças e manufatura, com sua capacidade de analisar grandes quantidades de dados, melhorar a eficiência e aprimorar a tomada de decisões.

Apesar de suas vantagens e potenciais, um dos maiores desafios que a inteligência artificial enfrenta é a questão dos vieses tendenciosos. Os sistemas de IA são tão bons quanto os comandos (algoritmos) em que são programados, e, se esses comandos forem tendenciosos, a IA também o será. Isso pode ter graves consequências, especialmente em áreas como decisões de contratação e empréstimos, em que o viés pode levar à discriminação. Para abordar essa questão, são necessárias a diversidade nos dados usados para treinar os sistemas de IA e transparência na forma como as decisões são tomadas.

À medida que a IA se torna mais poderosa e pervasiva, ela levanta questões profundas sobre os padrões éticos do ser humano e em que tipo de sociedade queremos viver. É necessário estabelecer diretrizes e princípios éticos para orientar o desenvolvimento e o uso da IA e garantir que ela esteja alinhada com nossos valores e aspirações como sociedade.

No Brasil, o Projeto de Lei (PL) 21/2020 colocou em discussão o marco legal do desenvolvimento e uso da inteligência artificial. Ainda que os legisladores não dispusessem de tempo suficiente para se familiarizar com o funcionamento dessa tecnologia tão complexa, tampouco de tempo para sensibilizar a sociedade sobre a temática, o texto foi aprovado no plenário da Câmara dos Deputados em 2021 e aguarda votação do Senado Federal.

Apesar de a regulamentação da inteligência artificial ser um grande desafio, não só no Brasil, mas em todo o mundo, ela é extremamente necessária, uma vez que a regulação traz mais segurança jurídica, atrai investimentos, além de garantir proteção para que as empresas desenvolvam e invistam na tecnologia, resultando no seu melhor aproveitamento pela sociedade.

Pensando nesses diferentes aspectos que envolvem a regulamentação do tema, os legisladores devem calibrar o peso da interferência do Estado de acordo com o grau de perigo na aplicação dessa tecnologia, considerando especialmente possíveis violações aos direitos fundamentais, como o da privacidade, por exemplo.

Contudo, é preciso muito cuidado para que essa dosagem na interferência do Estado não acarrete algum movimento de retração de investimentos, diante do estágio atual (incipiente) do uso da tecnologia no Brasil – estágio em que as leis já existentes e a atuação do Judiciário seriam suficientes para evitar abusos nesse sentido.

É importante ressaltar que a criação de um marco regulatório para a IA não é uma tarefa simples. A tecnologia evolui rapidamente, dificultando a previsão legal de todas as suas possíveis aplicações e consequências. É necessário um debate amplo e aberto envolvendo governos, empresas, acadêmicos e a sociedade civil para garantir que as regras estabelecidas sejam adequadas e eficazes, além de garantir o correto equilíbrio entre uma regulamentação ética e o desenvolvimento tecnológico, sem prejudicar os investimentos no setor.

*

ADVOGADO ESPECIALIZADO EM DIREITO DIGITAL E PROTEÇÃO DE DADOS, É MEMBRO DA COMISSÃO DE PRIVACIDADE, PROTEÇÃO DE DADOS E INTELIGÊNCIA ARTIFICIAL DA OAB-SP

Opinião por Alexander Coelho