Voltar ao Blog
IA no Direito

Alucinações de IA no Direito: Riscos Reais e Como se Proteger

Entenda o fenômeno das alucinações em ferramentas de IA jurídica, os riscos processuais envolvidos e estratégias práticas para mitigá-los.

Portal do Advogado.AI10 de janeiro de 202615 min
alucinação IAriscos jurídicoséticaverificação

O Que São Alucinações de IA e Por Que Advogados Devem se Preocupar#

Alucinação é o termo técnico para quando uma IA gera informações que parecem corretas mas são completamente fabricadas. No contexto jurídico, isso pode significar citações de leis inexistentes, acórdãos inventados ou súmulas com teor alterado. Para o advogado, as consequências podem ser devastadoras: desde a perda de credibilidade perante o magistrado até sanções disciplinares pela OAB.

O fenômeno das alucinações é inerente ao funcionamento dos modelos de linguagem e não se trata de um defeito que será simplesmente corrigido em versões futuras. Compreender por que a IA alucina, como identificar fabricações e quais estratégias adotar para se proteger é uma competência indispensável para qualquer advogado que utilize essas ferramentas.

A Anatomia de uma Alucinação Jurídica#

Tipos de Alucinações no Contexto Jurídico#

As alucinações em ferramentas de IA jurídica manifestam-se de diversas formas, cada uma com riscos específicos:

Alucinação de jurisprudência: a IA cria acórdãos fictícios com números de processo que seguem o padrão correto do tribunal, ementas que soam autênticas e até nomes de ministros reais como relatores. Este é o tipo mais perigoso, pois é difícil de detectar sem verificação na fonte.

Alucinação legislativa: a IA cita artigos de lei com numeração plausível mas conteúdo inventado, ou atribui a uma lei disposições que na verdade pertencem a outra norma. Pode também citar leis revogadas como se estivessem em vigor.

Alucinação doutrinária: a IA atribui a autores conhecidos posições que eles nunca defenderam, ou cria obras fictícias com títulos e editoras plausíveis.

Alucinação de súmulas: a IA mistura texto real de uma súmula com complementos fabricados, ou inventa súmulas inteiras com numeração que não existe.

Alucinação factual: a IA altera dados do caso concreto, como datas, valores ou nomes de partes, gerando inconsistências na peça processual.

Casos Reais de Problemas#

Diversos tribunais ao redor do mundo já registraram incidentes graves com advogados que citaram jurisprudência gerada por IA sem verificação:

  • Nos Estados Unidos, o caso Mata v. Avianca, Inc. (2023) tornou-se emblemático quando advogados citaram seis acórdãos completamente fictícios gerados pelo ChatGPT em uma petição federal, resultando em sanções processuais
  • Advogados multados por citar acórdãos inexistentes em petições, com valores que chegaram a milhares de dólares
  • Peças devolvidas por conterem referências a artigos de lei revogados ou fictícios, causando atrasos processuais
  • Argumentações baseadas em teses jurídicas inventadas pela IA, comprometendo a credibilidade do profissional perante o tribunal

No Brasil, embora casos públicos de sanções por uso de IA ainda sejam menos divulgados, o risco é igualmente real. A Resolução 332/2020 do CNJ e o Provimento 205/2024 do CFOAB foram editados precisamente para endereçar esses riscos.

O Provimento 205/2024 do CFOAB deixa claro: o advogado é integralmente responsável pelo conteúdo que protocola, independentemente de ter utilizado IA na sua elaboração.

Por Que a IA Alucina: Entendendo o Mecanismo#

A IA generativa funciona por predição estatística de texto. Ela não "entende" o Direito — ela prevê qual palavra tem maior probabilidade de vir depois da outra, com base em padrões identificados durante o treinamento. Isso gera problemas específicos no contexto jurídico:

O Problema da Plausibilidade#

A IA é extremamente competente em gerar texto que soa plausível. No contexto jurídico, isso significa que:

  • Números de acórdãos seguem o padrão correto do tribunal (REsp nº seguido de números plausíveis) mas o processo não existe
  • Artigos de lei com numeração coerente com a estrutura do diploma normativo mas conteúdo inventado
  • Súmulas que misturam texto real com complementos fabricados, dificultando a identificação da parte fictícia
  • Ementas que soam autênticas, com linguagem e estrutura típicas de cada tribunal, mas são ficcionais
  • Referências doutrinárias com nomes de autores reais, títulos plausíveis e editoras conhecidas, mas obras inexistentes

A Confiança Excessiva do Profissional#

Patricia Peck Pinheiro, referência em Direito Digital, alerta para o fenômeno da "automação do erro": quando o profissional confia tanto na ferramenta que deixa de exercer o senso crítico necessário. Quanto mais sofisticada a IA, maior o risco de complacência do usuário.

Fatores que Aumentam o Risco de Alucinação#

Pesquisas na área identificaram que alucinações são mais frequentes quando:

  • A consulta envolve temas específicos ou pouco comuns — quanto menos material de treinamento sobre o assunto, maior o risco
  • O modelo é pressionado a fornecer referências específicas (números de processo, artigos exatos) — a IA tende a fabricar quando forçada a ser precisa
  • A pergunta é formulada de forma que pressupõe a existência de determinada jurisprudência ou norma
  • O tema envolve legislação recente que pode não estar no treinamento do modelo
  • A consulta mistura jurisdições diferentes, levando a IA a confundir dispositivos

Estratégias de Mitigação: Um Protocolo Completo#

Verificação em Três Camadas#

  1. Camada 1 — Plausibilidade: O resultado faz sentido jurídico? A fundamentação é coerente com o sistema normativo brasileiro? Os dispositivos citados são compatíveis com a matéria tratada?
  2. Camada 2 — Existência: A fonte citada existe nos bancos oficiais? O número do processo é encontrado no site do tribunal? O artigo de lei existe no diploma normativo citado?
  3. Camada 3 — Fidelidade: O conteúdo citado corresponde ao original? A ementa transcrita confere com a decisão real? O texto do artigo de lei está correto e atualizado?

Checklist de Verificação Obrigatória#

Antes de protocolar qualquer peça elaborada com auxílio de IA, o advogado deve verificar:

  • [ ] Cada número de lei e artigo citado existe e está vigente
  • [ ] Cada acórdão referenciado existe no site oficial do tribunal
  • [ ] O teor das ementas transcritas corresponde fielmente ao original
  • [ ] As súmulas citadas existem e seu texto está correto
  • [ ] Datas e números de processos são precisos
  • [ ] A coerência interna da argumentação está preservada
  • [ ] Não há contradições entre os fatos narrados e os fundamentos jurídicos
  • [ ] As referências doutrinárias são verificáveis
  • [ ] Os nomes de partes, magistrados e advogados estão corretos
  • [ ] O valor da causa e os cálculos apresentados estão corretos

Técnicas de Prompt para Reduzir Alucinações#

Ao formular prompts para a IA, o advogado pode adotar estratégias que minimizam o risco de alucinações:

Instrua a IA a admitir incerteza: "Quando não tiver certeza absoluta sobre um dado, indique com [VERIFICAR] ao lado da informação."

Evite forçar especificidade: Em vez de "cite o número do acórdão do STJ sobre responsabilidade civil por erro médico", use "descreva a tese do STJ sobre responsabilidade civil por erro médico, sem inventar números de processo."

Peça fontes verificáveis: "Indique apenas dispositivos legais e súmulas cuja existência você tem alta confiança, e sinalize quando estiver menos seguro."

Separe geração de verificação: Use a IA para gerar o rascunho em um momento e, depois, em um prompt separado, peça que ela mesma revise se as referências são confiáveis.

Responsabilidade Profissional e Consequências#

O Estatuto da OAB e a Responsabilidade do Advogado#

Conforme os arts. 32 a 34 do Estatuto da OAB (Lei 8.906/94), o advogado responde por erros profissionais decorrentes de dolo ou culpa. A utilização de IA sem a devida verificação configura, no mínimo, culpa por negligência, pois o profissional tem o dever de conferir todas as informações antes de protocolar.

Carlos Roberto Gonçalves, em sua obra sobre responsabilidade civil, destaca que a responsabilidade do advogado é subjetiva, exigindo a demonstração de culpa. Contudo, a utilização de ferramentas de IA sem verificação adequada pode ser considerada conduta negligente, especialmente diante das orientações expressas do Provimento 205/2024.

Consequências Possíveis#

O advogado que protocola peças com alucinações de IA pode enfrentar:

  • Sanções processuais: multa por litigância de má-fé (art. 80, CPC), se demonstrado que o advogado agiu com desídia
  • Sanções disciplinares: processo ético perante a OAB por violação dos deveres de diligência e competência
  • Responsabilidade civil: ação de indenização movida pelo próprio cliente por prejuízos decorrentes de erro profissional
  • Dano reputacional: perda de credibilidade perante magistrados, desembargadores e ministros
  • Perda de prazos: se a peça for devolvida para correção e o prazo processual já tiver expirado

O Provimento 205/2024 do CFOAB#

O Provimento 205/2024 estabeleceu diretrizes específicas para o uso de IA por advogados, incluindo:

  • Responsabilidade integral do advogado pelo conteúdo produzido com auxílio de IA
  • Dever de verificação de todas as referências e citações
  • Recomendação de transparência sobre o uso de ferramentas de IA
  • Preservação do sigilo profissional ao utilizar plataformas de terceiros

Ferramentas de Apoio à Verificação#

Utilize os sites oficiais dos tribunais (STF, STJ, TST) para confirmar citações. Os portais dos tribunais oferecem ferramentas de busca que permitem verificar a existência de processos por número, partes ou palavras-chave da ementa.

Bancos como o portal de jurisprudência do STJ (scon.stj.jus.br/SCON/) e o portal do STF permitem buscas detalhadas por número de processo, relator, data de julgamento e termos da ementa.

Para verificação legislativa, o portal da Presidência da República (planalto.gov.br) mantém a legislação federal atualizada, e o site LegisWeb pode auxiliar na verificação de normas infralegais.

Boas Práticas para Escritórios de Advocacia#

Implementação de Protocolos Internos#

Escritórios que utilizam IA devem estabelecer protocolos formais de verificação:

  1. Política de uso: documento que define quais ferramentas de IA são aprovadas e quais são os procedimentos de verificação
  2. Checklist obrigatório: formulário que deve ser preenchido antes do protocolo de qualquer peça elaborada com IA
  3. Revisão por pares: toda peça gerada com auxílio de IA deve passar por revisão de outro profissional
  4. Treinamento contínuo: capacitação periódica da equipe sobre riscos e boas práticas
  5. Registro de incidentes: documentação de casos em que alucinações foram detectadas, para aprendizado coletivo

Cultura de Verificação#

Mais do que protocolos formais, é necessário cultivar uma cultura de ceticismo saudável em relação aos outputs da IA. Conforme Lenio Streck argumenta em relação à interpretação jurídica, não existe interpretação mecânica — todo texto jurídico exige compreensão contextualizada. Essa premissa se aplica integralmente ao uso de IA: nenhum output deve ser aceito sem reflexão crítica.

O Futuro das Alucinações em IA Jurídica#

O problema das alucinações está sendo endereçado pela comunidade tecnológica através de diversas abordagens: RAG (Retrieval Augmented Generation), que ancora as respostas da IA em fontes verificáveis; sistemas de citação automática que vinculam cada afirmação a uma fonte específica; e modelos treinados com reinforcement learning para reduzir fabricações.

No entanto, é improvável que as alucinações sejam completamente eliminadas no curto prazo. O advogado que domina técnicas de verificação estará sempre em vantagem sobre aquele que confia cegamente na tecnologia.

Perguntas Frequentes#

Todas as ferramentas de IA alucinam com a mesma frequência?#

Não. A taxa de alucinação varia significativamente entre modelos e ferramentas. Sistemas que utilizam RAG (Retrieval Augmented Generation), vinculando as respostas a fontes verificáveis, tendem a alucinar menos. Ferramentas especializadas em direito, treinadas com jurisprudência brasileira, geralmente apresentam resultados mais confiáveis que modelos generalistas.

Como identificar uma alucinação de IA em uma peça jurídica?#

Sinais de alerta incluem: números de processo com formatação perfeita mas que não retornam resultados no site do tribunal; ementas com linguagem genérica demais; citações de artigos com conteúdo que não se encontra na lei citada; e referências a decisões de datas muito recentes ou muito antigas sem contexto adequado.

O tribunal pode punir o advogado por usar IA?#

O uso de IA em si não é proibido. O que pode gerar sanções é o protocolo de peças com informações falsas, independentemente de terem sido geradas por IA ou por qualquer outro meio. A responsabilidade do advogado é pela veracidade do conteúdo que apresenta, conforme o Estatuto da OAB e o CPC.

Devo informar ao cliente que utilizei IA na elaboração de peças?#

O Provimento 205/2024 do CFOAB recomenda transparência, mas não impõe obrigação formal de comunicação ao cliente. Contudo, a boa-fé e a confiança que devem reger a relação advogado-cliente sugerem que o profissional seja transparente sobre suas metodologias de trabalho, incluindo o uso de ferramentas de IA.

Existe seguro profissional que cubra erros causados por alucinações de IA?#

Apólices de responsabilidade civil profissional para advogados geralmente cobrem erros decorrentes de negligência. Se o uso inadequado de IA for caracterizado como negligência profissional, a cobertura pode se aplicar. Contudo, é fundamental verificar as condições específicas da apólice e informar à seguradora sobre o uso de ferramentas de IA na prática profissional.

Aprenda a usar IA com segurança nos labs do Portal do Advogado.AI, onde você pratica verificação de outputs em cenários realistas. Nossa plataforma simula situações em que a IA gera alucinações e treina o advogado a identificá-las antes que causem prejuízos ao cliente ou à sua reputação profissional.

Compartilhe este artigo

Crie sua conta gratuita no Portal do Advogado.AI

Acesse Labs Juridicos, simulacoes com IA e muito mais. Sem cartao de credito.

Artigos Relacionados