PUBLICIDADE

Foto do(a) blog

Notícias e artigos do mundo do Direito: a rotina da Polícia, Ministério Público e Tribunais

Opinião|Limites e possibilidades para o uso de inteligência artificial no Judiciário

PUBLICIDADE

convidado
Por Renato Opice Blum

O Conselho Nacional de Justiça divulgou, em dezembro de 2023, que investigará a conduta de um juiz federal que recorreu ao ChatGPT para escrever uma decisão. Nesse caso, a Inteligência Artificial generativa criou uma tese atribuída ao STJ (Superior Tribunal de Justiça) para embasar a minuta. Outro caso legal foi uma multa de R$ 2,4 mil atribuída pelo TSE (Tribunal Superior Eleitoral) a um advogado que utilizou o software para escrever uma petição.

PUBLICIDADE

Nessas situações, o CNJ recomenda que nenhuma ferramenta não homologada pelo Judiciário seja utilizada em decisões ou quaisquer outros atos oficiais, como petições e análises de documentos. Apesar de o uso de Inteligência Artificial ser autorizado no âmbito judicial, a tecnologia deve obedecer a uma série de requisitos descritos na Resolução 332/2020, preservando o bem-estar dos jurisdicionados e garantindo a proteção de seus dados.

Dentro da mesma temática, a Justiça Federal do Canadá divulgou um comunicado no final do ano passado sobre o uso de Inteligência Artificial em processos judiciais (The Use of Artificial Intelligence in Court Proceedings), exigindo que todos os sujeitos envolvidos em uma ação, tanto advogados quanto partes e magistrados, incluam uma indicação de que esses documentos foram gerados por IA.

A Justiça canadense entendeu que é necessário garantir que as informações divulgadas pelas partes envolvidas sejam confiáveis e verossímeis, não sendo proibido, porém, o uso de Inteligência Artificial para auxiliar na criação dos documentos, mas sendo imprescindível que o trabalho da tecnologia seja revisado por um humano.

Segundo a recomendação do Canadá, “para garantir precisão e confiabilidade, é essencial verificar documentos e materiais gerados pela IA”, que devem estar alinhados com os padrões exigidos. O tribunal também publicou uma série de princípios e diretrizes sobre o tema, entre os quais se destacam responsabilidade, respeito aos direitos fundamentais, garantia a um julgamento justo e imparcial, além da não discriminação, transparência e participação humana. Já a diretriz consiste na obrigatoriedade de o tribunal não tomar nenhuma decisão sem antes realizar uma consulta às partes.

Publicidade

Na China, desde 2017 há o conceito de Cortes Inteligentes (Smart Courts), que consiste no uso de automatização em processos e procedimentos judiciais. O país tem como máxima “striving to make the people feel fairness and justice in every judicial case”, que diz respeito ao esforço para levar imparcialidade e justiça a todos os atos judiciais. O movimento levou a China a ser um dos primeiros países a automatizar atos do judiciário, chegando em 2023 a utilizar a IA para auxiliar na criação de decisões, bem como realizar a oitiva de testemunhas por meio de reconhecimento de voz e verificar bancos de dados em tempo real. Toda essa tecnologia também ajuda no cálculo da dosimetria da pena em ações criminais, apesar de gerar controvérsias entre juristas do país.

Voltando ao Brasil, a automatização de atos do judiciário permite também a otimização do tempo de um juiz ou servidor. Recentemente, uma pesquisa da Fundação Getúlio Vargas divulgou que, sem a “ajuda” de Inteligência Artificial, um servidor leva 44 minutos para analisar se um recurso extraordinário se encaixa ou não em algum tema de repercussão geral, tempo que cai para 5 segundos com a intervenção da tecnologia. Até o final do ano passado, 53 tribunais utilizavam IA para diferentes funcionalidades, o que levou, em novembro, o CNJ a instituir um grupo de trabalho para avaliar a aplicação desses softwares no Judiciário e seus impactos.

É importante ressaltar que a implementação de automatização em decisões judiciais cria desafios éticos que implicam em riscos à imparcialidade algorítmica, opacidade e transparência, responsabilidade (accountability), validade jurídica e proteção de dados, princípios previstos e garantidos pela LGPD (Lei Geral de Proteção de Dados). Dessa forma, é imprescindível a participação humana na revisão de decisões criadas por sistemas de IA Generativa, uma vez que estes ainda são passíveis de erro, colocando os direitos dos titulares em risco, sendo necessário achar o equilíbrio entre o uso da tecnologia e o fator humano.

Convidado deste artigo

Foto do autor Renato Opice Blum
Renato Opice Blumsaiba mais

Renato Opice Blum
Advogado e economista; professor da FAAP/INSPER/EPD/EBRADI/PUC-RS/IBMEC/StartSe; diretor da International Technology Law Association – ITECHLAW; conselheiro da EuroPrivacy e membro da Associação Europeia de Privacidade; juiz do IIC do Massachusetts Institute of Technology; presidente da Associação Brasileira de Proteção de Dados; mestre pela Florida Christian University
Conteúdo

As informações e opiniões formadas neste artigo são de responsabilidade única do autor.
Este texto não reflete, necessariamente, a opinião do Estadão.

Comentários

Os comentários são exclusivos para assinantes do Estadão.