Skip links

IA nos Tribunais: O Escândalo que Revela por que os Advogados Não Serão Substituídos por Chatbots

IA nos Tribunais: O Escândalo que Revela por que os Advogados Não Serão Substituídos por Chatbots

Imagem: YouTube

Nos últimos anos, muito se fala sobre como a inteligência artificial vai revolucionar diversas profissões, inclusive a advocacia. Mas um caso recente nos Estados Unidos provou que esse futuro pode estar mais distante do que imaginamos. Dois advogados de Nova York aprenderam da pior maneira possível o que acontece quando se confia cegamente no ChatGPT para realizar pesquisas jurídicas. O resultado? Um escândalo nacional, possíveis sanções profissionais e a possibilidade de terem encerrado suas carreiras jurídicas. Vamos entender o que aconteceu neste caso inusitado e quais lições podemos tirar dele.

O Caso que Chocou o Mundo Jurídico

Tudo começou em agosto de 2019, quando Roberto Matta, passageiro de um voo da Avianca Airlines de San Salvador para Nova York, alegou ter sido atingido no joelho esquerdo por um carrinho de serviço metálico. Segundo ele, o incidente lhe causou “lesões graves e dolorosas”, deixando-o “doente, dolorido, manco e incapacitado”. Em fevereiro de 2022, quase três anos depois, Matta entrou com uma ação judicial no tribunal estadual de Nova York.

A Avianca imediatamente transferiu o caso para o tribunal federal, onde foi designado para o juiz federal Kevin Castell. A companhia aérea baseou sua defesa em dois pontos cruciais:

  • A empresa havia declarado falência em 2020, e Matta já havia perdido o prazo para apresentar uma reclamação por danos
  • De acordo com a Convenção de Montreal (um tratado internacional que padroniza proteções legais para viajantes aéreos), existe um prazo de prescrição de dois anos para esse tipo de ação

Como o incidente ocorreu em agosto de 2019 e a ação foi apresentada apenas em fevereiro de 2022, os advogados da Avianca argumentaram que o prazo já havia expirado. Um caso claro, direto e aparentemente sem chance de sucesso para Matta.

Quando a IA Entra em Cena: O Erro Fatal

Foi aí que os advogados de Matta, Peter LoDuca e Steven Schwartz, do escritório Levidow, Levidow & Oberman, decidiram recorrer a um assistente controverso: o ChatGPT.

Em janeiro de 2023, a Avianca apresentou uma moção para arquivar o caso, citando a prescrição de dois anos e a falência pendente. Em resposta, os advogados de Matta argumentaram que o prazo de prescrição de três anos do estado de Nova York prevalecia sobre o prazo de dois anos da Convenção de Montreal, ou, alternativamente, que a falência da Avianca havia “suspendido” o prazo.

Para sustentar seus argumentos, citaram várias decisões de tribunais federais, incluindo uma do Quinto Circuito chamada “Varghese versus China Southern Airlines” e outra do 11º Circuito chamada “Zicherman versus Korean Airlines”. O problema? Esses casos simplesmente não existiam.

O Momento da Descoberta

A firma de advocacia que representava a Avianca, especializada em direito da aviação, logo percebeu algo estranho. Em resposta, escreveram que “não conseguiram localizar a maioria dos casos citados” pelos advogados do demandante, e os poucos que localizaram “não sustentavam as proposições para as quais foram citados”.

Em 11 de abril, o juiz Castell emitiu uma ordem para que LoDuca apresentasse em uma semana o texto completo das decisões citadas. Alegando estar “de férias”, LoDuca solicitou e recebeu mais uma semana para produzir as opiniões.

Aqui surge o primeiro alerta vermelho: para um advogado experiente, a tarefa de localizar e imprimir opiniões judiciais de bases de dados legais leva apenas alguns segundos. A necessidade de uma semana adicional sugeria problemas.

A Confissão: “Foi o ChatGPT que Me Disse”

Quando finalmente respondeu ao tribunal, LoDuca afirmou que estava “anexando oito das decisões solicitadas”, mas que o material fornecido “poderia não incluir as opiniões inteiras, apenas o que estava disponível no banco de dados online”. Ele também confessou não ter conseguido localizar a opinião Zicherman.

O absurdo dessa explicação é evidente para qualquer advogado. Localizar uma decisão federal é extremamente simples, especialmente tendo a citação do caso. Você pode baixá-la gratuitamente do site do Judiciário Federal via Pacer, obtê-la gratuitamente pelo Google Scholar ou até mesmo visitar uma biblioteca local e consultar o volume apropriado.

O juiz Castell, furioso com a situação, emitiu uma segunda ordem, afirmando estar diante de uma “circunstância sem precedentes” onde documentos apresentados estavam “repletos de citações de casos inexistentes”. Ele confirmou pessoalmente com o 11º Circuito que não havia nenhuma opinião Varghese.

A Revelação Chocante

Três semanas depois, LoDuca apresentou um depoimento explicando que não havia feito nenhum trabalho jurídico no caso, apesar de seu nome estar nos documentos. Ele explicou que seu colega Steven Schwartz era o responsável desde o início, mas como Schwartz não estava licenciado para atuar no tribunal federal, ele permitiu que LoDuca assumisse o crédito.

Schwartz, por sua vez, confessou que havia consultado o ChatGPT para localizar e citar os casos mencionados. Ele alegou nunca ter usado o ChatGPT para pesquisa jurídica antes e desconhecer “a possibilidade de que seu conteúdo pudesse ser falso”. Ele anexou capturas de tela não datadas mostrando-o supostamente perguntando ao ChatGPT se Varghese era real e sendo assegurado de que absolutamente era.

Os Graves Erros que Qualquer Advogado Reconheceria

Os casos fabricados apresentavam falhas óbvias que qualquer advogado experiente notaria imediatamente:

  • Formatação incorreta com paginação bizarra
  • Fontes alternadas e caracteres aparentemente manuscritos no meio do texto
  • Atribuição incorreta de juízes a tribunais onde não atuam
  • Nomes de partes inconsistentes (como Susan Varghese em uma página e Anish Vargese em outra)
  • Citações internas que remetiam a outros casos igualmente fictícios
  • Extensão anormalmente curta (cerca de 5 páginas, quando o normal seria 25 páginas ou mais)

Além disso, havia problemas com a própria notarização dos documentos apresentados ao tribunal. O depoimento de 25 de abril de LoDuca foi notarizado por Schwartz, o que é incomum considerando que todos os outros documentos do caso foram notarizados pelo mesmo assistente jurídico do escritório Levidow.

O Veredito: Consequências Devastadoras

O juiz Castell convocou uma audiência, obrigando tanto Schwartz quanto LoDuca a testemunharem sob juramento. Em uma reviravolta embaraçosa, Schwartz admitiu que havia usado o ChatGPT para sua pesquisa jurídica, mas insistiu que acreditava que os casos eram reais.

O juiz perguntou repetidamente: “Quando você está citando autoridades, você tem que verificar se elas existem, não é?”, ao que Schwartz concordou. O juiz também pressionou: “Você não verificou… porque não queria descobrir que estava errado?”

Ao final da audiência, o juiz Castell ordenou que Schwartz, LoDuca e seu escritório de advocacia pagassem uma multa de aproximadamente $5.000 à Avianca como compensação pelos honorários advocatícios incorridos na investigação dos casos falsos. Ele indeferiu o caso de Matta com prejuízo, significando que não poderia ser apresentado novamente, e encaminhou o assunto ao comitê de admissão à ordem dos advogados para possíveis medidas disciplinares adicionais.

Lições Valiosas para Profissionais do Direito na Era da IA

Este caso serve como um poderoso lembrete para advogados e estudantes de direito sobre os perigos de confiar cegamente na tecnologia. Aqui estão algumas lições cruciais:

  1. Verificação é inegociável: Nunca confie em uma ferramenta de IA para pesquisa jurídica sem verificar meticulosamente cada fonte
  2. Responsabilidade profissional: Como advogado, você é responsável por tudo que possui sua assinatura, independentemente de quem fez o trabalho
  3. Conhecimento das ferramentas: Entenda as limitações das tecnologias que utiliza – chatbots como o ChatGPT são conhecidos por “alucinar” ou fabricar informações
  4. Transparência com o tribunal: Nunca tente encobrir erros – a honestidade é fundamental na prática jurídica
  5. Competência tecnológica: A obrigação ética de competência inclui entender as tecnologias que você utiliza na prática jurídica

Este caso mostra claramente que, embora a IA possa um dia transformar aspectos da prática jurídica, estamos muito longe do ponto em que advogados possam ser substituídos por algoritmos. A combinação de julgamento humano, conhecimento legal e responsabilidade ética continua sendo insubstituível.

Seu Próximo Passo como Profissional do Direito

A tecnologia veio para ficar e ferramentas de IA certamente farão parte do futuro da advocacia. No entanto, é crucial que os profissionais do direito aprendam a usar essas ferramentas de forma ética e responsável.

Se você é um advogado ou estudante de direito, considere investir tempo para entender as capacidades e limitações das ferramentas de IA disponíveis. Utilize-as como assistentes, não como substitutos para sua própria expertise e julgamento. E lembre-se sempre: sua assinatura em um documento representa sua reputação profissional e integridade.

O direito continuará sendo uma profissão fundamentalmente humana, onde a ética, o discernimento e a responsabilidade não podem ser delegados a algoritmos, por mais avançados que sejam.

Perguntas Frequentes

O que é o ChatGPT e como ele funciona no contexto jurídico?
ChatGPT é um modelo de linguagem de inteligência artificial desenvolvido pela OpenAI, lançado publicamente em novembro de 2022. Ele utiliza uma tecnologia chamada Generative Pre-trained Transformer (GPT) que analisa grandes quantidades de dados e é treinada para sintetizar respostas a perguntas usando modelagem preditiva.

No contexto jurídico, o ChatGPT pode ajudar a rascunhar documentos, resumir informações complexas ou gerar ideias iniciais para argumentos. No entanto, como demonstrado pelo caso discutido, ele tem limitações sérias: pode “alucinar” (fabricar) informações, criar citações falsas e apresentar como fato informações que não são verdadeiras.

É importante entender que o ChatGPT não tem acesso a bases de dados jurídicas especializadas, não atualiza seu conhecimento em tempo real e não possui o raciocínio ou julgamento de um advogado treinado.

Quais são as implicações éticas do uso de IA na prática jurídica?
O uso de IA na prática jurídica levanta várias questões éticas importantes. Primeiramente, os advogados têm um dever de competência, o que significa que devem entender as ferramentas que utilizam, incluindo suas limitações. Utilizar IA sem compreender como ela funciona ou verificar sua precisão viola esse dever.

Em segundo lugar, há questões de confidencialidade e privacidade. Quando um advogado insere informações em um sistema de IA como o ChatGPT, essas informações podem ser utilizadas para treinar o modelo, potencialmente comprometendo o sigilo cliente-advogado.

Finalmente, há a questão da responsabilidade profissional. Independentemente de quem ou o que gerou o conteúdo, o advogado que assina um documento é responsável por seu conteúdo. Isso significa que não se pode simplesmente culpar a IA por erros ou falsidades em documentos legais.

Como advogados podem usar a IA de forma responsável em seu trabalho?
Para usar a IA de forma responsável na prática jurídica, os advogados devem seguir algumas diretrizes fundamentais. Primeiramente, usem ferramentas de IA apenas para tarefas para as quais são adequadas – como ajudar com rascunhos iniciais, resumir documentos longos ou gerar ideias preliminares.

Em segundo lugar, sempre verifiquem meticulosamente qualquer informação gerada por IA. Isso inclui verificar a existência e conteúdo de quaisquer casos citados, confirmar estatísticas ou fatos apresentados, e revisar o raciocínio jurídico.

Terceiro, mantenha-se atualizado sobre as capacidades e limitações das ferramentas de IA que você utiliza. Participe de treinamentos, leia sobre atualizações e entenda como a ferramenta processa informações.

Finalmente, seja transparente com clientes e tribunais sobre o uso de IA. Se você utilizou ferramentas de IA para ajudar a redigir documentos ou conduzir pesquisas, considere divulgar isso quando apropriado.

Quais foram os principais erros cometidos pelos advogados no caso da Avianca?
Os advogados no caso da Avianca cometeram vários erros críticos. O erro mais fundamental foi confiar no ChatGPT para pesquisa jurídica sem verificar as informações geradas. Eles citaram múltiplos casos que simplesmente não existiam, algo que poderia ter sido facilmente verificado usando bancos de dados jurídicos padrão.

Outro erro grave foi tentar encobrir o problema quando descoberto. Em vez de admitir imediatamente que não podiam localizar os casos citados (porque não existiam), eles tentaram ganhar tempo e possivelmente fabricar versões desses casos.

O terceiro erro foi a falta de supervisão adequada. LoDuca permitiu que seu nome e assinatura fossem usados em documentos que ele não havia revisado adequadamente, violando sua responsabilidade profissional.

Finalmente, quando confrontados com evidências de que os casos não existiam, eles inicialmente não foram totalmente honestos com o tribunal sobre como esses casos falsos foram gerados, o que agravou a situação.

A IA realmente substituirá advogados no futuro próximo?
Não é provável que a IA substitua completamente os advogados no futuro próximo, apesar dos avanços tecnológicos. O caso da Avianca ilustra perfeitamente por quê: a prática jurídica requer não apenas conhecimento técnico, mas também julgamento, ética e responsabilidade profissional que os sistemas de IA atuais não possuem.

Embora a IA possa automatizar tarefas repetitivas como revisão de documentos, pesquisa básica ou geração de rascunhos, ela não pode substituir aspectos cruciais do trabalho jurídico como estratégia, negociação, persuasão e interação com clientes.

Além disso, o sistema jurídico é baseado em precedentes e interpretação, áreas onde o julgamento humano continua sendo superior. Os advogados precisam entender não apenas o que a lei diz, mas também seu contexto, nuances e aplicação prática.

O futuro provavelmente verá uma evolução para “advogados aumentados” – profissionais que usam IA como ferramenta para melhorar sua eficiência e capacidades, mas que mantêm o controle sobre decisões importantes e a responsabilidade final pelo trabalho produzido.

Assista ao vídeo original

Este artigo foi baseado no vídeo abaixo. Se preferir, você pode assistir ao conteúdo original: