Direito no Tribunal da IA: quando a máquina inventa leis e o advogado assina embaixo
Casos recentes em tribunais brasileiros revelam petições com jurisprudências e dispositivos legais inexistentes, gerados por inteligência artificial sem revisão humana
Divulgação A transformação digital chegou ao universo jurídico com promessas de produtividade, rapidez e eficiência. No entanto, um fenômeno crescente começa a preocupar magistrados, procuradores e órgãos de controle: advogados que utilizam ferramentas de inteligência artificial para redigir peças processuais e acabam apresentando citações jurídicas que simplesmente não existem.
O alerta mais recente veio do Ministério Público de Contas do Estado de São Paulo (MPC-SP). Durante sessão do Tribunal de Contas paulista, a procuradora-geral Letícia Formoso Delsin Feres identificou inconsistências em documentos submetidos à Corte, incluindo referências legais incorretas, relatorias divergentes da realidade e menções a dispositivos inexistentes no ordenamento jurídico brasileiro.
Segundo ela, a situação pode ter consequências graves para o sistema de justiça.
“Isso tem potencial de induzir o Tribunal a erro, de violar deveres de veracidade e de boa-fé e pode caracterizar, inclusive, litigância de má-fé”, alertou a procuradora-geral durante a sessão.
O problema tem origem em um comportamento já conhecido no campo da inteligência artificial generativa: as chamadas “alucinações”. Modelos de linguagem como ChatGPT e Gemini funcionam prevendo padrões linguísticos a partir de grandes volumes de dados. Quando não encontram uma resposta segura, podem construir uma informação plausível — porém inexistente — com aparência técnica convincente.
No campo jurídico, isso pode resultar em acórdãos fictícios, números de processos inventados e citações de súmulas ou leis que jamais foram editadas.
José de Souza Junior, diretor do Grupo RG Eventos, especialista em inteligência artificial e segurança cibernética e responsável pela proteção digital de eventos institucionais internacionais como a COP30, afirma que o fenômeno já vem sendo observado com frequência crescente no ambiente forense.
“Segundo vários relatos, o que vem acontecendo é que as pessoas têm utilizado a Inteligência Artificial, principalmente o ChatGPT e o Gemini, como uma forma de facilitador do trabalho. Só que as inteligências, muitas vezes, se não tiverem sido configuradas da forma correta, podem gerar alucinações”, explica.
Para o especialista, o problema deixou de ser um risco teórico e passou a produzir efeitos concretos nos tribunais brasileiros.
“Tem sido recorrente, em alguns tribunais, verificar citações de leis, artigos e jurisprudências que simplesmente não existem. Isso tem gerado preocupação entre gestores dos tribunais, desembargadores e responsáveis pela condução dos processos”, afirma.
Casos documentados pela imprensa jurídica revelam um padrão que se repete em diferentes regiões do país. No Tribunal de Justiça de Santa Catarina (TJ-SC), uma desembargadora advertiu formalmente um advogado após identificar que um habeas corpus apresentado por ele continha jurisprudências inexistentes. A conduta foi classificada como ato de má-fé e desrespeito ao tribunal.
Em outro caso na mesma corte, um recurso foi rejeitado após o relator constatar que as decisões citadas e até mesmo as obras doutrinárias mencionadas eram totalmente fictícias. O processo foi encaminhado à Ordem dos Advogados do Brasil em Santa Catarina (OAB-SC) para apuração disciplinar.
Situações semelhantes foram registradas em tribunais trabalhistas. No Tribunal Regional do Trabalho do Ceará (TRT-CE), um advogado foi condenado ao pagamento de multa de 2% sobre o valor da causa após apresentar decisões inexistentes com fortes indícios de uso de inteligência artificial generativa. A corte também encaminhou o caso à OAB do estado.
Em Minas Gerais, o TRT-MG aplicou multa por litigância de má-fé após constatar que um advogado citou uma súmula inexistente nas bases oficiais da Justiça do Trabalho. Já na região metropolitana de São Paulo, a 6ª Turma do TRT-2 rejeitou a tentativa de um advogado de atribuir o erro a estagiários do escritório, reafirmando que a responsabilidade final pelo conteúdo da peça é do profissional que a assina.
Além das chamadas alucinações jurídicas, especialistas alertam para outro risco ainda pouco discutido no meio jurídico: o vazamento de informações sensíveis.
Segundo José de Souza Junior, advogados frequentemente inserem nas plataformas de inteligência artificial dados confidenciais de processos, estratégias jurídicas e documentos internos sem conhecer plenamente as políticas de uso e armazenamento dessas ferramentas.
“Às vezes podem existir dados sensíveis e informações que acabam sendo disseminadas na rede. Hoje ainda não existe uma regulamentação expressa para isso, e dados sigilosos podem acabar sendo compartilhados. Isso pode comprometer estratégias jurídicas ou até a segurança de informações empresariais”, alerta.
Em um processo judicial, as informações utilizadas para redigir uma petição podem incluir dados pessoais de clientes, provas ainda não apresentadas nos autos ou detalhes estratégicos de defesa. Inserir esse conteúdo em plataformas de IA sem controle pode significar transferir informações confidenciais para servidores externos ou para bases de treinamento de modelos.
Para o especialista, a discussão sobre inteligência artificial no Direito não pode ser separada da segurança digital.
“Essa questão da Inteligência Artificial e da segurança cibernética estão muito alinhadas. Muitas vezes se discute apenas o erro na peça processual, mas não o problema estrutural, que é a ausência de protocolos de segurança no uso profissional dessas ferramentas”, afirma.
Desde 2024, o Conselho Federal da Ordem dos Advogados do Brasil publicou a Recomendação 001/2024, estabelecendo diretrizes para o uso de inteligência artificial generativa na prática jurídica. O documento orienta que profissionais compreendam as limitações da tecnologia, verifiquem rigorosamente todas as informações geradas e mantenham transparência com os clientes.
A recomendação também reforça que atos privativos da advocacia não podem ser delegados integralmente a sistemas automatizados sem supervisão qualificada.
O problema é que a norma não possui força de lei. Trata-se de uma diretriz ética, e sua aplicação depende da adesão voluntária da classe.
Nos processos já analisados por tribunais brasileiros, alguns relatos indicam que advogados confiaram integralmente em textos produzidos por ferramentas de IA, sem qualquer revisão jurídica posterior. Em um desses casos, um magistrado chegou a classificar a petição como um “ato processual inexistente”, justamente por ter sido produzida por uma ferramenta sem verificação humana.
Apesar das críticas, autoridades e especialistas não defendem o abandono da tecnologia. A avaliação predominante é que a inteligência artificial continuará transformando o exercício da advocacia — mas exigirá maior preparo técnico dos profissionais.
A própria procuradora-geral do MPC-SP destacou que a ferramenta pode trazer ganhos importantes de eficiência quando utilizada com controle e responsabilidade.
José de Souza Junior concorda, mas ressalta que a adoção acelerada da tecnologia não foi acompanhada pelo mesmo ritmo de capacitação.
“Todo mundo está utilizando Inteligência Artificial, mas muitas pessoas não têm o conhecimento técnico necessário para usar da forma correta. A tecnologia veio para ficar, mas precisa ser utilizada com revisão humana, checagem de dados e responsabilidade sobre a veracidade das informações”, afirma.
Para ele, o caminho não é proibir a ferramenta, mas estabelecer protocolos claros de uso profissional.
O alerta emitido pelo Ministério Público de Contas de São Paulo ganha relevância justamente por partir de dentro do próprio sistema de controle. Ao levar o tema para uma sessão plenária, o órgão sinaliza que a tolerância institucional com erros derivados do uso descuidado de inteligência artificial pode estar chegando ao limite.
Os precedentes já estabelecidos por tribunais brasileiros são claros: a tecnologia não serve como justificativa para erros processuais. No Direito, quem responde pelo conteúdo apresentado em juízo continua sendo o advogado que assina a peça.
Enquanto o Marco Legal da Inteligência Artificial segue em tramitação no Congresso Nacional e ainda não define regras específicas para o uso da tecnologia no ambiente forense, a responsabilidade permanece integralmente nas mãos dos profissionais que optam por utilizá-la.
Mais do que uma questão tecnológica, o debate que emerge nos tribunais brasileiros hoje é, acima de tudo, uma questão de responsabilidade jurídica.





COMENTÁRIOS