Imagem: YouTube
Imagine estar em um tribunal federal e descobrir que os casos que você citou em sua defesa… simplesmente não existem. Essa é a realidade enfrentada por diversos profissionais do direito que estão confiando cegamente no ChatGPT para redigir documentos jurídicos. O resultado? Sanções severas, possível suspensão da licença para advogar e uma reputação profissional destruída em segundos.
No mundo jurídico, onde precisão e credibilidade são fundamentais, a inteligência artificial tem se mostrado uma ferramenta de dois gumes. Enquanto promete aumentar a produtividade, ela também está criando uma nova categoria de problemas éticos e profissionais jamais vistos antes na história do direito.
Um caso recente nos tribunais federais dos Estados Unidos serve como um sério alerta para profissionais do direito no Brasil e em todo o mundo. Um advogado apresentou um documento judicial contendo múltiplas citações e referências a casos que, quando verificados pela parte adversária e pelo juiz, simplesmente não existiam na jurisprudência.
Entre as “invenções” do ChatGPT estavam:
O juiz, ao perceber o problema, emitiu uma ordem para que o advogado explicasse a origem dessas referências falsas e por que não deveria ser sancionado ou reportado à Ordem dos Advogados por má conduta profissional.
Quando um advogado assina um documento judicial, essa assinatura carrega um peso significativo. Não é apenas uma formalidade – é uma declaração de responsabilidade profissional. Ao assinar, o profissional está afirmando que:
Como o tribunal federal destacou no caso em questão, a Regra 11 do Procedimento Civil Federal (equivalente a regras similares no Brasil) foi criada especificamente para incentivar os advogados a “parar, pensar e investigar mais cuidadosamente antes de submeter documentos ao tribunal”.
O que muitos profissionais não percebem é que economizar tempo usando IA para gerar documentos jurídicos pode custar muito mais caro no final. As possíveis consequências incluem:
O fenômeno das “alucinações” da IA é particularmente perigoso no ambiente jurídico. O ChatGPT e outros modelos de linguagem não foram projetados como ferramentas de pesquisa jurídica confiáveis. Esses sistemas:
Foram treinados com dados gerais da internet, não especificamente com bases de dados jurídicas atualizadas. Não têm acesso em tempo real a bibliotecas jurídicas ou sistemas de busca de jurisprudência. Frequentemente misturam informações reais com conteúdo fabricado, criando um resultado impossível de ser usado sem verificação exaustiva.
Como observou o tribunal no caso mencionado: “Se um advogado confia em inteligência artificial ou outra tecnologia para redigir um documento judicial, o advogado ainda é responsável por garantir que o documento seja preciso e não contenha jurisprudência ou citações fabricadas.”
Isso não significa que advogados devam abandonar completamente as ferramentas de IA, mas sim usá-las com extrema cautela:
Se optar por usar IA para esboçar documentos, implemente um processo rigoroso de verificação. Cada caso citado, cada referência legal, cada argumento jurídico deve ser independentemente verificado em fontes oficiais e confiáveis.
Considere o ChatGPT como uma ferramenta para gerar ideias iniciais ou estruturar argumentos, nunca como fonte definitiva de informações jurídicas. A pesquisa real ainda precisa ser feita através dos canais tradicionais confiáveis.
Em vez de pedir à IA para criar um documento completo, use-a para tarefas específicas e limitadas, como ajudar a clarificar conceitos ou resumir pontos. Mantenha o trabalho de pesquisa jurídica nas mãos de profissionais qualificados.
O caso discutido revela um momento crítico na evolução da profissão jurídica. Com a crescente pressão por eficiência e redução de custos, muitos profissionais estão buscando atalhos tecnológicos sem compreender completamente as implicações.
No entanto, o princípio fundamental permanece: nenhuma tecnologia pode substituir a responsabilidade ética e profissional do advogado. Como o juiz no caso destacou, o silêncio do advogado quando questionado sobre a origem das citações falsas foi “ensurdecedor” – uma admissão tácita de negligência profissional.
Não importa quanto a tecnologia avance, a assinatura de um profissional do direito continuará a ser seu compromisso pessoal com a veracidade e a integridade do sistema judicial.
Está claro que a IA veio para ficar no mundo jurídico. A questão não é se devemos usá-la, mas como podemos usá-la responsavelmente. Isso requer:
Não se engane: as ferramentas de IA são poderosas e têm seu lugar no arsenal do advogado moderno. Mas como qualquer ferramenta poderosa, elas exigem conhecimento, respeito e cautela no seu manuseio.
O caso do advogado enfrentando sanções por confiar cegamente no ChatGPT nos dá uma lição valiosa. Na era digital, a responsabilidade profissional não diminuiu – na verdade, tornou-se ainda mais crucial.
Mantenha-se informado sobre os desenvolvimentos da IA no campo jurídico. Invista em educação contínua sobre tecnologia legal. Desenvolva protocolos claros em seu escritório sobre como e quando usar ferramentas de IA. E acima de tudo, nunca esqueça que sua assinatura é seu selo de qualidade e integridade – algo que nenhuma máquina pode replicar ou substituir.
Quando confrontado com a tentação de deixar a IA fazer o trabalho jurídico por você, lembre-se: você pode delegar a redação, mas nunca a responsabilidade. Como bem lembrou o especialista em direito tecnológico: “Nunca confie em um computador que você não pode jogar pela janela quando ele falhar.”
Este artigo foi baseado no vídeo abaixo. Se preferir, você pode assistir ao conteúdo original:
A inteligência artificial está passando por uma transformação radical. Enquanto todos falam sobre construir agentes…
O desenvolvimento com inteligência artificial está revolucionando a forma como criamos aplicações, e os servidores…
O YouTube se estabeleceu como a plataforma de conteúdo mais duradoura e lucrativa da internet.…
O YouTube se tornou muito mais do que uma plataforma de entretenimento. Para profissionais e…
A inteligência artificial está redefinindo os limites do que consideramos possível. Em 2025, testemunhamos avanços…
A criação de aplicativos de inteligência artificial sempre foi considerada uma tarefa complexa, reservada apenas…