Publicidade

Advogados preguiçosos passam vergonha ao abusar da IA em petições nos EUA

Por  | 

Compartilhe:
Pexels/Sora Shimazaki
Pexels/Sora Shimazaki

A difusão de ferramentas generativas como ChatGPT trouxe promessas de ganho de produtividade para escritórios e departamentos jurídicos — mas também uma onda de erros que já custam caro a alguns advogados preguiçosos. Nos últimos dois anos os tribunais americanos têm identificado petições com citações inexistentes, trechos de decisões fabricadas e argumentos baseados em “alucinações” de inteligência artificial, resultando em multas, remessas aos conselhos de ética e, em casos extremos, suspensão profissional. 

Casos recentes mostram punições concretas, como um que ocorreu em fevereiro deste ano. Um juiz federal citou e multou advogados após constatar decisões citadas em um documento que, segundo o tribunal, não existiam — uma consequência direta do uso de pesquisa automatizada sem verificação humana.

Em outro episódio, um advogado em Utah foi sancionado depois que um recurso continha citações inventadas atribuídas a decisões inexistentes — o profissional admitiu ter usado um sistema de IA para pesquisa. 

Canaltech
O Canaltech está no WhatsApp!Entre no canal e acompanhe notícias e dicas de tecnologia
Continua após a publicidade

Advogados ao redor do mundo começam a montar uma espécie de "força-tarefa digital" para combater o mau uso da inteligência artificial nos tribunais. Com o aumento de petições recheadas de jurisprudências inexistentes e citações inventadas por ferramentas generativas, profissionais passaram a rastrear e expor colegas que não verificam o material produzido por IA.

O movimento ganhou tração com o advogado francês Damien Charlotin, que criou um banco de dados público reunindo casos de erros provocados por uso irresponsável da tecnologia — a lista já ultrapassa 500 registros. A iniciativa inspirou uma rede internacional de juristas que monitora e denuncia abusos, numa tentativa de proteger a credibilidade da profissão em meio à corrida por automação.

“Esses casos estão manchando a reputação da advocacia”, disse ao New York Times Stephen Gillers, professor de ética da Universidade de Nova York. Segundo ele, o uso descuidado da IA ameaça transformar uma ferramenta promissora em um risco ético — e, para o direito, reputação vale tanto quanto jurisprudência bem-fundamentada.

Mais fiscalização e punições severas

Tribunais variam na severidade das sanções: houve desde advertências formais e ordens de educação continuada até multas e pagamento de custas processuais. Em alguns processos de alto perfil, juízes determinaram indenizações por despesas advocatícias e deduziram a responsabilidade ética dos profissionais que delegaram sem supervisão. A linha dura dos magistrados reflete uma preocupação crescente: a confiança cega em respostas geradas por IA pode inverter o ônus de diligência que pesa sobre quem representa clientes em juízo

Especialistas em ética jurídica e associações de classe têm adotado tom didático — e preventivo. A American Bar Association e grupos de advogados publicaram orientações que autorizam o uso de ferramentas de IA, desde que os profissionais estabeleçam protocolos para checagem de fontes, documentação do processo de pesquisa e supervisão humana final. Em textos orientativos recentes, advogados são instruídos a verificar cada citação, registrar as instruções dadas ao sistema e garantir que nada seja apresentado ao tribunal sem confirmação independente.

Juízes vêm reiterando que o uso de IA não elimina a obrigação ética do advogado de fundamentar suas manifestações em fontes verificáveis. Em decisões recentes, magistrados lembraram que a tecnologia é ferramenta — e que o profissional responde por falhas decorrentes da sua adoção negligente. Isso cria um novo imperativo: políticas internas que documentem o uso da IA e sistemas de revisão que reproduzam os passos da pesquisa humana.

Tribunais e conselhos de ética devem continuar a atualizar regras e emitir pareceres sobre o emprego de IA na advocacia. Já há movimentos locais para criar diretrizes mais rígidas — incluindo prazos para autocorreção de peças e mecanismos disciplinares mais claros quando a IA for causa direta de erro processual. 

Continua após a publicidade

Leia mais: