Um juiz federal dos Estados Unidos impôs multas de US$ 5 mil (R$ 23,9 mil, na cotação atual) a dois advogados e a um escritório de advocacia por utilizarem o ChatGPT para a apresentação de pesquisas jurídicas fictícias em uma reclamação de lesão na aviação. O juiz P. Kevin Castel disse que eles agiram de má-fé. No entanto, ele creditou suas desculpas e medidas corretivas tomadas ao explicar por que sanções mais severas não eram necessárias para garantir que eles ou outros não permitissem novamente que ferramentas de inteligência artificial os levassem a produzir histórico jurídico falso em seus argumentos.
“Os avanços tecnológicos são comuns e não há nada intrinsecamente incorreto em usar uma ferramenta de inteligência artificial confiável para obter assistência”, escreveu Castel. “Mas as regras existentes impõem um papel de controle aos advogados para garantir a precisão de suas petições.”
O juiz disse que os advogados e seu escritório, Levidow, Levidow & Oberman, P.C., “abandonaram suas responsabilidades ao apresentar opiniões judiciais inexistentes com citações e referências falsas criadas pela ferramenta de inteligência artificial ChatGPT, e continuaram a sustentar as opiniões falsas depois que ordens judiciais questionaram sua existência”.
Em comunicado, o escritório de advocacia disse que cumprirá a ordem de Castel, mas acrescentou: “Respeitosamente, discordamos da conclusão de que alguém em nosso escritório agiu de má-fé. Já pedimos desculpas ao tribunal e ao nosso cliente. Continuamos a acreditar que, diante do que até mesmo o tribunal reconheceu ser uma situação sem precedentes, cometemos um erro de boa fé ao não acreditar que uma peça de tecnologia poderia estar inventando casos do nada”. O escritório disse estar considerando se irá recorrer.
Castel disse que a má-fé resultou das falhas dos advogados em responder adequadamente ao juiz e a seus adversários legais quando foi notado que seis casos jurídicos listados para apoiar seus argumentos por escrito de 1º de março não existiam. O juiz citou “explicações inconsistentes e contraditórias” oferecidas pelo advogado Steven A. Schwartz. Ele disse que o advogado Peter LoDuca mentiu sobre estar de férias e foi desonesto ao confirmar a veracidade das declarações apresentadas a Castel.
Em uma audiência realizada no início deste mês, Schwartz disse que usou o chatbot alimentado por inteligência artificial para ajudá-lo a encontrar precedentes jurídicos que apoiassem o caso de um cliente contra a companhia aérea colombiana Avianca por uma lesão ocorrida em um voo de 2019.
A Microsoft investiu cerca de US$ 1 bilhão na OpenAI, empresa responsável pelo ChatGPT. A revista Fortune, no entanto, afirma que foram US$ 3 bilhões. No começo deste ano, a Microsoft acertou um acordo ainda maior, com outros US$ 10 bilhões.
O chatbot, que gera respostas em formato de ensaio para estímulos dos usuários, sugeriu vários casos envolvendo acidentes de aviação que Schwartz não tinha conseguido encontrar por métodos usuais usados em seu escritório de advocacia. Alguns desses casos não eram reais, identificavam juízes incorretamente ou envolviam companhias aéreas que não existiam. O juiz disse que uma das decisões falsas geradas pelo chatbot “possui algumas características que são superficialmente consistentes com decisões judiciais reais”, mas afirmou que outras partes continham “disparates” e eram “sem sentido”.
Em uma opinião escrita separada, o juiz rejeitou a reclamação de aviação subjacente, afirmando que o prazo de prescrição tinha expirado. Advogados de Schwartz e LoDuca não responderam imediatamente a um pedido de comentário./AP
Os comentários são exclusivos para assinantes do Estadão.