Advogados preguiçosos passam vergonha ao abusar da IA em petições nos EUA
Por Claudio Yuge |

A difusão de ferramentas generativas como ChatGPT trouxe promessas de ganho de produtividade para escritórios e departamentos jurídicos — mas também uma onda de erros que já custam caro a alguns advogados preguiçosos. Nos últimos dois anos os tribunais americanos têm identificado petições com citações inexistentes, trechos de decisões fabricadas e argumentos baseados em “alucinações” de inteligência artificial, resultando em multas, remessas aos conselhos de ética e, em casos extremos, suspensão profissional.
- Piores empregos do mundo: quais as carreiras menos satisfatórias em 2025
- Vagas de cursos e empregos em tecnologia: oportunidades no Itaú, DIO e outros
Casos recentes mostram punições concretas, como um que ocorreu em fevereiro deste ano. Um juiz federal citou e multou advogados após constatar decisões citadas em um documento que, segundo o tribunal, não existiam — uma consequência direta do uso de pesquisa automatizada sem verificação humana.
Em outro episódio, um advogado em Utah foi sancionado depois que um recurso continha citações inventadas atribuídas a decisões inexistentes — o profissional admitiu ter usado um sistema de IA para pesquisa.
Advogados ao redor do mundo começam a montar uma espécie de "força-tarefa digital" para combater o mau uso da inteligência artificial nos tribunais. Com o aumento de petições recheadas de jurisprudências inexistentes e citações inventadas por ferramentas generativas, profissionais passaram a rastrear e expor colegas que não verificam o material produzido por IA.
O movimento ganhou tração com o advogado francês Damien Charlotin, que criou um banco de dados público reunindo casos de erros provocados por uso irresponsável da tecnologia — a lista já ultrapassa 500 registros. A iniciativa inspirou uma rede internacional de juristas que monitora e denuncia abusos, numa tentativa de proteger a credibilidade da profissão em meio à corrida por automação.
“Esses casos estão manchando a reputação da advocacia”, disse ao New York Times Stephen Gillers, professor de ética da Universidade de Nova York. Segundo ele, o uso descuidado da IA ameaça transformar uma ferramenta promissora em um risco ético — e, para o direito, reputação vale tanto quanto jurisprudência bem-fundamentada.
Mais fiscalização e punições severas
Tribunais variam na severidade das sanções: houve desde advertências formais e ordens de educação continuada até multas e pagamento de custas processuais. Em alguns processos de alto perfil, juízes determinaram indenizações por despesas advocatícias e deduziram a responsabilidade ética dos profissionais que delegaram sem supervisão. A linha dura dos magistrados reflete uma preocupação crescente: a confiança cega em respostas geradas por IA pode inverter o ônus de diligência que pesa sobre quem representa clientes em juízo.
Especialistas em ética jurídica e associações de classe têm adotado tom didático — e preventivo. A American Bar Association e grupos de advogados publicaram orientações que autorizam o uso de ferramentas de IA, desde que os profissionais estabeleçam protocolos para checagem de fontes, documentação do processo de pesquisa e supervisão humana final. Em textos orientativos recentes, advogados são instruídos a verificar cada citação, registrar as instruções dadas ao sistema e garantir que nada seja apresentado ao tribunal sem confirmação independente.
Juízes vêm reiterando que o uso de IA não elimina a obrigação ética do advogado de fundamentar suas manifestações em fontes verificáveis. Em decisões recentes, magistrados lembraram que a tecnologia é ferramenta — e que o profissional responde por falhas decorrentes da sua adoção negligente. Isso cria um novo imperativo: políticas internas que documentem o uso da IA e sistemas de revisão que reproduzam os passos da pesquisa humana.
Tribunais e conselhos de ética devem continuar a atualizar regras e emitir pareceres sobre o emprego de IA na advocacia. Já há movimentos locais para criar diretrizes mais rígidas — incluindo prazos para autocorreção de peças e mecanismos disciplinares mais claros quando a IA for causa direta de erro processual.
Leia mais: