Imagem: YouTube
Nos últimos anos, muito se fala sobre como a inteligência artificial vai revolucionar diversas profissões, inclusive a advocacia. Mas um caso recente nos Estados Unidos provou que esse futuro pode estar mais distante do que imaginamos. Dois advogados de Nova York aprenderam da pior maneira possível o que acontece quando se confia cegamente no ChatGPT para realizar pesquisas jurídicas. O resultado? Um escândalo nacional, possíveis sanções profissionais e a possibilidade de terem encerrado suas carreiras jurídicas. Vamos entender o que aconteceu neste caso inusitado e quais lições podemos tirar dele.
Tudo começou em agosto de 2019, quando Roberto Matta, passageiro de um voo da Avianca Airlines de San Salvador para Nova York, alegou ter sido atingido no joelho esquerdo por um carrinho de serviço metálico. Segundo ele, o incidente lhe causou “lesões graves e dolorosas”, deixando-o “doente, dolorido, manco e incapacitado”. Em fevereiro de 2022, quase três anos depois, Matta entrou com uma ação judicial no tribunal estadual de Nova York.
A Avianca imediatamente transferiu o caso para o tribunal federal, onde foi designado para o juiz federal Kevin Castell. A companhia aérea baseou sua defesa em dois pontos cruciais:
Como o incidente ocorreu em agosto de 2019 e a ação foi apresentada apenas em fevereiro de 2022, os advogados da Avianca argumentaram que o prazo já havia expirado. Um caso claro, direto e aparentemente sem chance de sucesso para Matta.
Foi aí que os advogados de Matta, Peter LoDuca e Steven Schwartz, do escritório Levidow, Levidow & Oberman, decidiram recorrer a um assistente controverso: o ChatGPT.
Em janeiro de 2023, a Avianca apresentou uma moção para arquivar o caso, citando a prescrição de dois anos e a falência pendente. Em resposta, os advogados de Matta argumentaram que o prazo de prescrição de três anos do estado de Nova York prevalecia sobre o prazo de dois anos da Convenção de Montreal, ou, alternativamente, que a falência da Avianca havia “suspendido” o prazo.
Para sustentar seus argumentos, citaram várias decisões de tribunais federais, incluindo uma do Quinto Circuito chamada “Varghese versus China Southern Airlines” e outra do 11º Circuito chamada “Zicherman versus Korean Airlines”. O problema? Esses casos simplesmente não existiam.
A firma de advocacia que representava a Avianca, especializada em direito da aviação, logo percebeu algo estranho. Em resposta, escreveram que “não conseguiram localizar a maioria dos casos citados” pelos advogados do demandante, e os poucos que localizaram “não sustentavam as proposições para as quais foram citados”.
Em 11 de abril, o juiz Castell emitiu uma ordem para que LoDuca apresentasse em uma semana o texto completo das decisões citadas. Alegando estar “de férias”, LoDuca solicitou e recebeu mais uma semana para produzir as opiniões.
Aqui surge o primeiro alerta vermelho: para um advogado experiente, a tarefa de localizar e imprimir opiniões judiciais de bases de dados legais leva apenas alguns segundos. A necessidade de uma semana adicional sugeria problemas.
Quando finalmente respondeu ao tribunal, LoDuca afirmou que estava “anexando oito das decisões solicitadas”, mas que o material fornecido “poderia não incluir as opiniões inteiras, apenas o que estava disponível no banco de dados online”. Ele também confessou não ter conseguido localizar a opinião Zicherman.
O absurdo dessa explicação é evidente para qualquer advogado. Localizar uma decisão federal é extremamente simples, especialmente tendo a citação do caso. Você pode baixá-la gratuitamente do site do Judiciário Federal via Pacer, obtê-la gratuitamente pelo Google Scholar ou até mesmo visitar uma biblioteca local e consultar o volume apropriado.
O juiz Castell, furioso com a situação, emitiu uma segunda ordem, afirmando estar diante de uma “circunstância sem precedentes” onde documentos apresentados estavam “repletos de citações de casos inexistentes”. Ele confirmou pessoalmente com o 11º Circuito que não havia nenhuma opinião Varghese.
Três semanas depois, LoDuca apresentou um depoimento explicando que não havia feito nenhum trabalho jurídico no caso, apesar de seu nome estar nos documentos. Ele explicou que seu colega Steven Schwartz era o responsável desde o início, mas como Schwartz não estava licenciado para atuar no tribunal federal, ele permitiu que LoDuca assumisse o crédito.
Schwartz, por sua vez, confessou que havia consultado o ChatGPT para localizar e citar os casos mencionados. Ele alegou nunca ter usado o ChatGPT para pesquisa jurídica antes e desconhecer “a possibilidade de que seu conteúdo pudesse ser falso”. Ele anexou capturas de tela não datadas mostrando-o supostamente perguntando ao ChatGPT se Varghese era real e sendo assegurado de que absolutamente era.
Os casos fabricados apresentavam falhas óbvias que qualquer advogado experiente notaria imediatamente:
Além disso, havia problemas com a própria notarização dos documentos apresentados ao tribunal. O depoimento de 25 de abril de LoDuca foi notarizado por Schwartz, o que é incomum considerando que todos os outros documentos do caso foram notarizados pelo mesmo assistente jurídico do escritório Levidow.
O juiz Castell convocou uma audiência, obrigando tanto Schwartz quanto LoDuca a testemunharem sob juramento. Em uma reviravolta embaraçosa, Schwartz admitiu que havia usado o ChatGPT para sua pesquisa jurídica, mas insistiu que acreditava que os casos eram reais.
O juiz perguntou repetidamente: “Quando você está citando autoridades, você tem que verificar se elas existem, não é?”, ao que Schwartz concordou. O juiz também pressionou: “Você não verificou… porque não queria descobrir que estava errado?”
Ao final da audiência, o juiz Castell ordenou que Schwartz, LoDuca e seu escritório de advocacia pagassem uma multa de aproximadamente $5.000 à Avianca como compensação pelos honorários advocatícios incorridos na investigação dos casos falsos. Ele indeferiu o caso de Matta com prejuízo, significando que não poderia ser apresentado novamente, e encaminhou o assunto ao comitê de admissão à ordem dos advogados para possíveis medidas disciplinares adicionais.
Este caso serve como um poderoso lembrete para advogados e estudantes de direito sobre os perigos de confiar cegamente na tecnologia. Aqui estão algumas lições cruciais:
Este caso mostra claramente que, embora a IA possa um dia transformar aspectos da prática jurídica, estamos muito longe do ponto em que advogados possam ser substituídos por algoritmos. A combinação de julgamento humano, conhecimento legal e responsabilidade ética continua sendo insubstituível.
A tecnologia veio para ficar e ferramentas de IA certamente farão parte do futuro da advocacia. No entanto, é crucial que os profissionais do direito aprendam a usar essas ferramentas de forma ética e responsável.
Se você é um advogado ou estudante de direito, considere investir tempo para entender as capacidades e limitações das ferramentas de IA disponíveis. Utilize-as como assistentes, não como substitutos para sua própria expertise e julgamento. E lembre-se sempre: sua assinatura em um documento representa sua reputação profissional e integridade.
O direito continuará sendo uma profissão fundamentalmente humana, onde a ética, o discernimento e a responsabilidade não podem ser delegados a algoritmos, por mais avançados que sejam.
Este artigo foi baseado no vídeo abaixo. Se preferir, você pode assistir ao conteúdo original:
A inteligência artificial está passando por uma transformação radical. Enquanto todos falam sobre construir agentes…
O desenvolvimento com inteligência artificial está revolucionando a forma como criamos aplicações, e os servidores…
O YouTube se estabeleceu como a plataforma de conteúdo mais duradoura e lucrativa da internet.…
O YouTube se tornou muito mais do que uma plataforma de entretenimento. Para profissionais e…
A inteligência artificial está redefinindo os limites do que consideramos possível. Em 2025, testemunhamos avanços…
A criação de aplicativos de inteligência artificial sempre foi considerada uma tarefa complexa, reservada apenas…