ÆAEO Advogados
← Todos os posts

23/04/2026 · 9 min · geral

7 erros comuns ao usar ChatGPT no escritório de advocacia

Erros que vimos repetidos em escritórios que adotaram IA generativa rápido demais — desde alucinação de jurisprudência sem checagem até divulgação automática que viola Provimento 205. Guia para usar ChatGPT em prática segura.

Adoção de IA em escritório de advocacia disparou em 2025-2026. ChatGPT, Claude, Gemini viraram parte da rotina — pra petição, pra pesquisa, pra atendimento, pra conteúdo. Junto com a adoção, vimos uma sequência de erros que custaram desde tempo até processo ético.

Esta lista não é sobre evitar IA. É sobre usar IA sem ser pego.

Erro 1 — Citar jurisprudência sem conferir no tribunal

A alucinação mais conhecida. ChatGPT inventa números de processo, ementas, datas. Em 2023 um advogado nos EUA foi sancionado por citar 6 casos do nada em peça processual. Em 2026, o problema persiste — modelos estão melhores mas continuam errando.

Regra mínima: toda jurisprudência citada por IA precisa ser verificada no site do tribunal correspondente (STF, STJ, TST, TJ-SP, etc). Se o número de processo não retorna resultado, descarte e procure manualmente.

Tempo extra: 2-3 minutos por peça. Risco evitado: sanção disciplinar + perda de credibilidade com cliente.

Erro 2 — Publicar texto gerado sem revisão profunda

Variação institucional do erro 1: o escritório usa IA para gerar conteúdo de blog/Instagram, alguém revisa rapidamente “o que tá legível”, e publica. Resultado típico: peça com superlativo (“a melhor abordagem”), promessa implícita (“você consegue reverter”), ou citação errada de lei.

Todo isso é violação do Provimento 205/2021. E está assinado pelo advogado titular — porque o cliente final não distingue entre texto humano e texto IA, e a OAB também não.

Regra mínima: revisão linha por linha, conferência de toda fonte citada, eliminação de superlativos. Use ferramenta com revisor OAB embutido, ou faça checklist manual antes de publicar.

Erro 3 — Compartilhar dados de cliente em prompt sem mascarar

Vários escritórios em 2025 mandaram para o ChatGPT prompts do tipo: “Tenho um cliente, João Silva, CPF X, processo Y, na vara Z, com a seguinte demanda: ...”. Isso é compartilhamento de dado pessoal sensível com terceiro (OpenAI), sem base legal sólida em LGPD.

Regra mínima: despessoalize todo prompt. “Tenho um cliente que é mãe solo, ganha R$Y mensais, ex-marido aumentou renda” — sem nome, CPF, processo. Se precisar de detalhe específico do caso, use solução self-hosted (LLM local) ou ferramenta com contrato de processamento de dados (DPA) que cubra LGPD explicitamente.

Erro 4 — Confiar em resposta sobre legislação local recente

Grandes LLMs têm cutoff de treinamento. Mesmo modelos com busca em tempo real às vezes erram em legislação pós-2024 — ou em interpretação consolidada nos últimos 12 meses.

Exemplo recorrente: alterações de teto INSS de 2026, mudanças no CDC pós Lei 14.181/2021, regras novas de previdenciário pós Reforma. ChatGPT sabe a regra antiga, dá resposta confiante, mas defasada.

Regra mínima: para tudo que envolva legislação dos últimos 24 meses, confira na fonte primária (Planalto, sites de tribunais, boletins oficiais). Use a IA para entender contexto, não para citar texto vigente.

Erro 5 — Automatizar atendimento de cliente sem disclaimer

Alguns escritórios colocaram chatbot na home do site, sem identificar que é IA. Cliente pergunta sobre seu caso, IA responde com tom confiante, cliente toma decisão sem consultar advogado humano. Se a resposta da IA estiver errada e o cliente sofrer prejuízo, a responsabilidade é do escritório.

Regra mínima: se for usar chatbot, identifique claramente como assistente automatizado, limite a respostas informativas gerais, e direcione casos concretos para agendamento humano. Nunca deixe IA “aconselhar sobre o caso”.

Erro 6 — Publicar peças com a mesma estrutura repetitiva

IA generativa tem padrão estilístico identificável: parágrafo de abertura com pergunta retórica, lista numerada no meio, conclusão com “em suma”. 10 peças seguidas com esse padrão e o LLM identifica como conteúdo IA-gerado, descontando confiança.

Regra mínima: varie estrutura. Algumas peças em formato Q&A, outras em narrativa, outras em lista. Edite os parágrafos de transição manualmente para soar como você. O revisor automático só checa OAB-compliance, não originalidade estilística.

Erro 7 — Achar que 50 peças hoje resolvem 12 meses

O entusiasmo inicial leva alguns escritórios a maratona: 50 peças em uma semana, todas geradas por IA. O LLM lê o domínio como “farm de conteúdo” — descarta.

A matemática cruel: 50 peças num pico não tem mesmo valor que 50 peças distribuídas em 50 semanas. Frescor + recorrência são parte do sinal. Burst de conteúdo seguido de silêncio é antipadrão.

Regra mínima: ritmo semanal sustentável vence rajada. 4 peças/mês por 12 meses bate 50 peças num burst seguido de 11 meses parado.

A regra-mãe

IA generativa em escritório de advocacia funciona quando trata como assistente, não substituto. Ela acelera tarefas (rascunho, pesquisa, formatação), mas não decide. Quem decide é você — e a responsabilidade ética do que sai com sua assinatura também.

Os 7 erros acima têm em comum a mesma raiz: tratar a IA como autoridade final em vez de ferramenta auxiliar. Tira essa premissa errada, e o uso de IA deixa de ser risco e vira alavanca.

---

*A AEO Advogados foi desenhada para mitigar especificamente os erros 1, 2, 6 e 7: revisor OAB heurístico bloqueia padrões problemáticos antes de você publicar. Mas os outros (LGPD em prompt, conferência de jurisprudência, disclaimer em chatbot) continuam sendo da sua disciplina. Nenhuma plataforma substitui o cuidado profissional.*

Quer aplicar isso ao seu escritório?

Crie sua conta grátis e publique peças revisadas para o Provimento 205 ainda hoje.

Começar grátis