Juiz federal se recusa a punir advogado que citou precedentes inexistentes em petição redigida com ajuda de inteligência artificial 

“Não acredito que o advogado tenha feito algo intencionalmente para enganar este tribunal”, disse magistrado
Imagem gerada por IA.

Em mais um caso envolvendo o uso — e mau uso — da inteligência artificial generativa na pesquisa jurídica, um juiz federal decidiu não impor sanções a um advogado experiente que apresentou uma petição contendo citações incorretas de jurisprudência geradas por IA.

Apesar de o causídico ter reconhecido expressamente o uso de ferramentas de IA generativa na preparação de sua petição, que continha várias citações incorretas, o Juiz Federal Thomas T. Cullen, que presidiu o processo, caracterizou os erros como “um engano honesto” em vez de má conduta intencional. O caso aconteceu no Distrito Ocidental da Virgínia (EUA).

O que aconteceu?


Guyer, um advogado do Oregon especializado em casos de denunciantes com reconhecimento nacional, estava representando o autor da ação na Virgínia através de sua associação com o Government Accountability Project (GAP), uma organização de direitos de denunciantes para a qual ele serviu anteriormente como diretor de litígios e conselheiro geral.

Em julho de 2024, o Juiz Cullen emitiu uma ordem intimando Guyer a prestar explicações após a descoberta de que uma petição apresentada por ele continha citações que não puderam ser encontradas e casos que pareciam não existir. A petição também continha citações de jurisprudência que não existiam nos casos referenciados. O advogado da parte contrária sinalizou essas discrepâncias ao tribunal, chamando-as de “ChatGPT desenfreado”.

Na época em que o juiz emitiu a ordem de intimação, Guyer havia respondido às citações errôneas apresentando autoridades suplementares. No entanto, o Juiz Cullen escreveu na ordem que Guyer “de forma intrigante” não havia explicado de onde vinham as citações ou quem era o culpado. 

Após a emissão da ordem, Guyer apresentou uma resposta na qual negou o uso de casos fictícios, mas reconheceu o uso de várias citações e referências errôneas. Ele afirmou que os dois casos citados pelo tribunal como inexistentes, de fato, existiam, mas receberam citações incorretas. Quanto às citações, ele disse que, embora não aparecessem literalmente nos casos, refletiam com precisão os princípios discutidos nesses casos.

O que o juiz decidiu

Durante a audiência realizada em 9 de outubro de 2024, o juiz indicou que, em geral, estava aberto ao uso de IA por advogados, chamando-o de “o novo normal”.

“Este tribunal não tem nem a autoridade nem a inclinação de conter essa prática, mesmo que quisesse”, disse ele. “Se eu fizesse isso, seria justificadamente percebido por alguns como extrapolando e decretando imprudentemente que os litigantes não podem usar essa tecnologia inovadora em um tribunal.”

Ao mesmo tempo, o juiz ressaltou que os litigantes que usam IA generativa para preparar petições “ainda devem aderir aos princípios básicos de conduta, incluindo tomar medidas razoáveis para garantir que o que eles apresentam ao tribunal, incluindo casos citados para reforçar argumentos legais, seja verdadeiro e preciso ao máximo de sua capacidade.”

O juiz reconheceu o mérito de Guyer por aceitar a responsabilidade por seu erro e por admitir que não empregou as salvaguardas necessárias para garantir que a IA fosse usada adequadamente. Também destacou que Guyer e o GAP se comprometeram a implementar salvaguardas no futuro, incluindo o uso de bancos de dados como Westlaw para verificar citações geradas por IA e discussões, e designar um advogado júnior para verificar manualmente petições escritas usando IA generativa.

“Não acredito que o Sr. Guyer tenha feito algo intencionalmente para enganar este tribunal”, afirmou o Juiz Cullen. “Ele tem um histórico imaculado como advogado, praticando em um nível muito alto ao longo de sua carreira. Ele cometeu um erro e, em grande parte, reconheceu isso.”

Clique aqui para ler a transcrição da sessão.

Leia também

plugins premium WordPress