
Imagem: YouTube
Nos últimos anos, muito se fala sobre como a inteligência artificial vai revolucionar diversas profissões, inclusive a advocacia. Mas um caso recente nos Estados Unidos provou que esse futuro pode estar mais distante do que imaginamos. Dois advogados de Nova York aprenderam da pior maneira possível o que acontece quando se confia cegamente no ChatGPT para realizar pesquisas jurídicas. O resultado? Um escândalo nacional, possíveis sanções profissionais e a possibilidade de terem encerrado suas carreiras jurídicas. Vamos entender o que aconteceu neste caso inusitado e quais lições podemos tirar dele.
O Caso que Chocou o Mundo Jurídico
Tudo começou em agosto de 2019, quando Roberto Matta, passageiro de um voo da Avianca Airlines de San Salvador para Nova York, alegou ter sido atingido no joelho esquerdo por um carrinho de serviço metálico. Segundo ele, o incidente lhe causou “lesões graves e dolorosas”, deixando-o “doente, dolorido, manco e incapacitado”. Em fevereiro de 2022, quase três anos depois, Matta entrou com uma ação judicial no tribunal estadual de Nova York.
A Avianca imediatamente transferiu o caso para o tribunal federal, onde foi designado para o juiz federal Kevin Castell. A companhia aérea baseou sua defesa em dois pontos cruciais:
- A empresa havia declarado falência em 2020, e Matta já havia perdido o prazo para apresentar uma reclamação por danos
- De acordo com a Convenção de Montreal (um tratado internacional que padroniza proteções legais para viajantes aéreos), existe um prazo de prescrição de dois anos para esse tipo de ação
Como o incidente ocorreu em agosto de 2019 e a ação foi apresentada apenas em fevereiro de 2022, os advogados da Avianca argumentaram que o prazo já havia expirado. Um caso claro, direto e aparentemente sem chance de sucesso para Matta.
Quando a IA Entra em Cena: O Erro Fatal
Foi aí que os advogados de Matta, Peter LoDuca e Steven Schwartz, do escritório Levidow, Levidow & Oberman, decidiram recorrer a um assistente controverso: o ChatGPT.
Em janeiro de 2023, a Avianca apresentou uma moção para arquivar o caso, citando a prescrição de dois anos e a falência pendente. Em resposta, os advogados de Matta argumentaram que o prazo de prescrição de três anos do estado de Nova York prevalecia sobre o prazo de dois anos da Convenção de Montreal, ou, alternativamente, que a falência da Avianca havia “suspendido” o prazo.
Para sustentar seus argumentos, citaram várias decisões de tribunais federais, incluindo uma do Quinto Circuito chamada “Varghese versus China Southern Airlines” e outra do 11º Circuito chamada “Zicherman versus Korean Airlines”. O problema? Esses casos simplesmente não existiam.
O Momento da Descoberta
A firma de advocacia que representava a Avianca, especializada em direito da aviação, logo percebeu algo estranho. Em resposta, escreveram que “não conseguiram localizar a maioria dos casos citados” pelos advogados do demandante, e os poucos que localizaram “não sustentavam as proposições para as quais foram citados”.
Em 11 de abril, o juiz Castell emitiu uma ordem para que LoDuca apresentasse em uma semana o texto completo das decisões citadas. Alegando estar “de férias”, LoDuca solicitou e recebeu mais uma semana para produzir as opiniões.
Aqui surge o primeiro alerta vermelho: para um advogado experiente, a tarefa de localizar e imprimir opiniões judiciais de bases de dados legais leva apenas alguns segundos. A necessidade de uma semana adicional sugeria problemas.
A Confissão: “Foi o ChatGPT que Me Disse”
Quando finalmente respondeu ao tribunal, LoDuca afirmou que estava “anexando oito das decisões solicitadas”, mas que o material fornecido “poderia não incluir as opiniões inteiras, apenas o que estava disponível no banco de dados online”. Ele também confessou não ter conseguido localizar a opinião Zicherman.
O absurdo dessa explicação é evidente para qualquer advogado. Localizar uma decisão federal é extremamente simples, especialmente tendo a citação do caso. Você pode baixá-la gratuitamente do site do Judiciário Federal via Pacer, obtê-la gratuitamente pelo Google Scholar ou até mesmo visitar uma biblioteca local e consultar o volume apropriado.
O juiz Castell, furioso com a situação, emitiu uma segunda ordem, afirmando estar diante de uma “circunstância sem precedentes” onde documentos apresentados estavam “repletos de citações de casos inexistentes”. Ele confirmou pessoalmente com o 11º Circuito que não havia nenhuma opinião Varghese.
A Revelação Chocante
Três semanas depois, LoDuca apresentou um depoimento explicando que não havia feito nenhum trabalho jurídico no caso, apesar de seu nome estar nos documentos. Ele explicou que seu colega Steven Schwartz era o responsável desde o início, mas como Schwartz não estava licenciado para atuar no tribunal federal, ele permitiu que LoDuca assumisse o crédito.
Schwartz, por sua vez, confessou que havia consultado o ChatGPT para localizar e citar os casos mencionados. Ele alegou nunca ter usado o ChatGPT para pesquisa jurídica antes e desconhecer “a possibilidade de que seu conteúdo pudesse ser falso”. Ele anexou capturas de tela não datadas mostrando-o supostamente perguntando ao ChatGPT se Varghese era real e sendo assegurado de que absolutamente era.
Os Graves Erros que Qualquer Advogado Reconheceria
Os casos fabricados apresentavam falhas óbvias que qualquer advogado experiente notaria imediatamente:
- Formatação incorreta com paginação bizarra
- Fontes alternadas e caracteres aparentemente manuscritos no meio do texto
- Atribuição incorreta de juízes a tribunais onde não atuam
- Nomes de partes inconsistentes (como Susan Varghese em uma página e Anish Vargese em outra)
- Citações internas que remetiam a outros casos igualmente fictícios
- Extensão anormalmente curta (cerca de 5 páginas, quando o normal seria 25 páginas ou mais)
Além disso, havia problemas com a própria notarização dos documentos apresentados ao tribunal. O depoimento de 25 de abril de LoDuca foi notarizado por Schwartz, o que é incomum considerando que todos os outros documentos do caso foram notarizados pelo mesmo assistente jurídico do escritório Levidow.
O Veredito: Consequências Devastadoras
O juiz Castell convocou uma audiência, obrigando tanto Schwartz quanto LoDuca a testemunharem sob juramento. Em uma reviravolta embaraçosa, Schwartz admitiu que havia usado o ChatGPT para sua pesquisa jurídica, mas insistiu que acreditava que os casos eram reais.
O juiz perguntou repetidamente: “Quando você está citando autoridades, você tem que verificar se elas existem, não é?”, ao que Schwartz concordou. O juiz também pressionou: “Você não verificou… porque não queria descobrir que estava errado?”
Ao final da audiência, o juiz Castell ordenou que Schwartz, LoDuca e seu escritório de advocacia pagassem uma multa de aproximadamente $5.000 à Avianca como compensação pelos honorários advocatícios incorridos na investigação dos casos falsos. Ele indeferiu o caso de Matta com prejuízo, significando que não poderia ser apresentado novamente, e encaminhou o assunto ao comitê de admissão à ordem dos advogados para possíveis medidas disciplinares adicionais.
Lições Valiosas para Profissionais do Direito na Era da IA
Este caso serve como um poderoso lembrete para advogados e estudantes de direito sobre os perigos de confiar cegamente na tecnologia. Aqui estão algumas lições cruciais:
- Verificação é inegociável: Nunca confie em uma ferramenta de IA para pesquisa jurídica sem verificar meticulosamente cada fonte
- Responsabilidade profissional: Como advogado, você é responsável por tudo que possui sua assinatura, independentemente de quem fez o trabalho
- Conhecimento das ferramentas: Entenda as limitações das tecnologias que utiliza – chatbots como o ChatGPT são conhecidos por “alucinar” ou fabricar informações
- Transparência com o tribunal: Nunca tente encobrir erros – a honestidade é fundamental na prática jurídica
- Competência tecnológica: A obrigação ética de competência inclui entender as tecnologias que você utiliza na prática jurídica
Este caso mostra claramente que, embora a IA possa um dia transformar aspectos da prática jurídica, estamos muito longe do ponto em que advogados possam ser substituídos por algoritmos. A combinação de julgamento humano, conhecimento legal e responsabilidade ética continua sendo insubstituível.
Seu Próximo Passo como Profissional do Direito
A tecnologia veio para ficar e ferramentas de IA certamente farão parte do futuro da advocacia. No entanto, é crucial que os profissionais do direito aprendam a usar essas ferramentas de forma ética e responsável.
Se você é um advogado ou estudante de direito, considere investir tempo para entender as capacidades e limitações das ferramentas de IA disponíveis. Utilize-as como assistentes, não como substitutos para sua própria expertise e julgamento. E lembre-se sempre: sua assinatura em um documento representa sua reputação profissional e integridade.
O direito continuará sendo uma profissão fundamentalmente humana, onde a ética, o discernimento e a responsabilidade não podem ser delegados a algoritmos, por mais avançados que sejam.
Perguntas Frequentes
Assista ao vídeo original
Este artigo foi baseado no vídeo abaixo. Se preferir, você pode assistir ao conteúdo original: