Recentemente deu-se início à operação de sistema de reconhecimento facial no Metrô de São Paulo, tecnologia já adotada em vários países e algumas cidades brasileiras, como Curitiba, Canoas, Salvador e Rio de Janeiro. Ao todo, o novo circuito interno contará com mais de 5.000 câmeras digitais espalhadas pelas estações das linhas 1-Azul, 2-Verde, 3-Vermelha e 15-Prata.
A tecnologia existente desde a década de 1960 é uma técnica de identificação biométrica que, por meio de um software, reconhece e diferencia rostos humanos. O programa executa um mapeamento matemático dos traços e espaços existentes em diferentes imagens, comparando-as por meio de algoritmos, sendo capaz de afirmar ou negar uma identidade.
Ao justificar a implantação do sistema, o Governador de São Paulo, Rodrigo Garcia, afirmou que a inteligência artificial será utilizada a favor da sociedade, tanto para fins de segurança pública quanto para localizar pessoas desaparecidas, já que haverá uma integração com bancos de dados da Prefeitura de São Paulo e da Secretaria de Segurança Pública.
A par das relevantes ilegalidades já invocadas em decisão proferida em Ação Civil Pública - que inicialmente barrou o projeto - referentes à violação da Lei Geral de Proteção de Dados, do Código de Defesa do Consumidor e do Estatuto da Criança e do Adolescente, é importante que se reflita sobre as falhas desse sistema e suas irreversíveis consequências.
Embora os sistemas disponíveis no mercado tenham sido classificados com alto grau de acuracidade, superando os 90% de precisão, este índice não é universal. Estudos realizados nos Estados Unidos da América indicam que os algoritmos utilizados apresentam resultados preocupantes nas taxas de erro de acordo com gênero e raça. Enquanto esse índice para identificar homens brancos é de 0,8%, para mulheres negras a média é de 20 a 34%.
Essas informações são suficientes, no cenário da sociedade brasileira, para afirmar que muitos serão os equívocos oriundos desse novo projeto na identificação de suspeitos da prática de crimes. A população negra, que já sofre diariamente com o racismo que permeia a atuação das forças de segurança pública e da seletividade do sistema penal, será, também, alvo do segregacionismo dos programas de reconhecimento facial, que poderão promover a automatização de sua culpabilidade.
Não se nega que as novas tecnologias de monitoramento podem trazer maior segurança, sobretudo sob o viés preventivo - ao inibir o crime pela vigilância constante -, e até pelo seu poder reativo, possibilitando a atuação célere por parte de agentes policiais diante de um flagrante. Também não se fecha os olhos para a questão probatória, caso se permita o acesso aos dados não só para identificação de suspeitos mas, igualmente, para se provar a inocência daqueles que injustamente são acusados.
Na ânsia por segurança, aceitamos, sem questionar, a disseminação de câmeras de vigilância e outros recursos de monitoramento de informações. Também o fascínio pela tecnologia acaba por superar os receios das consequências advindas dos abusos de um sistema de vigilância constante. O discurso da segurança e do medo está sempre presente quando se busca legitimar o monitoramento e o controle de informações pessoais. Estejamos atentos para não compactuar com um novo sistema de vigiar e punir.
*Maíra Beauchamp Salomi, advogada criminalista e mestre em Direito Penal pela Faculdade de Direito da USP
Os comentários são exclusivos para assinantes do Estadão.