Skip links

Guia Completo: Como Advogados Podem Usar IA Generativa com Ética e Responsabilidade

O mundo jurídico está passando por uma revolução tecnológica sem precedentes. A chegada da Inteligência Artificial generativa, com ferramentas como ChatGPT, está transformando a maneira como advogados e profissionais do direito realizam seu trabalho. Mas com grandes poderes vêm grandes responsabilidades. Como garantir que essa tecnologia seja usada de forma ética e eficaz no campo jurídico?

Neste artigo, exploramos as diretrizes desenvolvidas pela Federação Europeia de Advogados (FBE) sobre o uso de IA por profissionais jurídicos. Essas orientações surgiram após diversos casos polêmicos de uso inadequado de IA no meio jurídico e oferecem um roteiro valioso para advogados que desejam incorporar essas tecnologias em sua prática diária.

A FBE e sua Iniciativa sobre IA no Direito

A Federação Europeia de Advogados (FBE) é uma organização com mais de 30 anos de história, criada para apoiar profissionais jurídicos de todos os países membros do Conselho da Europa. Com mais de 200 membros e representando mais de um milhão de advogados, a FBE opera através de comissões paralelas, incluindo a Comissão de Novas Tecnologias, responsável por monitorar os avanços tecnológicos e seu impacto na prestação de serviços jurídicos.

Diante da rápida evolução da paisagem tecnológica e da dificuldade de muitos advogados em compreender a linguagem técnica associada à IA, a Comissão decidiu criar um documento simples e acessível que pudesse alcançar o maior número possível de profissionais em toda a Europa.

Por Que as Diretrizes Foram Criadas?

O gatilho para a criação das diretrizes foi uma série de equívocos iniciais no uso da IA generativa por advogados. Um caso emblemático ocorreu em maio de 2023, quando um advogado de Nova York, Steven Schwarz, utilizou o ChatGPT para produzir uma petição judicial que citava casos jurídicos completamente fictícios. O advogado admitiu não ter verificado a existência real dos precedentes mencionados, o que resultou em penalidades impostas pelo tribunal.

A FBE antecipou que casos semelhantes poderiam ocorrer na Europa em breve e decidiu agir preventivamente. O objetivo era garantir que a qualidade dos serviços jurídicos permanecesse mais importante que a velocidade de entrega dos resultados aos clientes.

A Primeira Edição das Diretrizes

A primeira edição das diretrizes da FBE sobre o uso de IA por advogados europeus foi lançada em junho de 2023, apenas um mês após o caso de Steven Schwarz. Após múltiplas discussões sobre como abordar o tema de maneira acessível, a comissão decidiu criar um relatório curto, com cerca de 20 páginas, mantendo-o o mais simples possível.

Este documento inicial propôs sete diretrizes de natureza geral para advogados seguirem, preenchendo uma lacuna na regulamentação existente tanto em nível legislativo quanto nos códigos de ética das associações de advogados nacionais ou locais.

Além das diretrizes propriamente ditas, o documento incluía esclarecimentos terminológicos e terminava com um chamado à ação para que diferentes partes interessadas se unissem ao esforço de criar métodos seguros e responsáveis para aplicar a IA generativa no meio jurídico.

O Impacto das Diretrizes

O documento teve um impacto surpreendentemente positivo, gerando milhares de downloads. Parte desse sucesso pode ser atribuído ao fato de a FBE ter sido uma das primeiras organizações a abordar essa questão específica para a comunidade jurídica.

Um fator crucial para esse alcance foi a tradução das diretrizes para diversos idiomas nacionais, incluindo italiano, polonês, espanhol, alemão, turco e português. Isso permitiu que as orientações chegassem a advogados que não acompanham regularmente redes internacionais ou documentos publicados em inglês.

Evolução do Cenário Tecnológico

Quando as diretrizes foram lançadas em junho de 2023, o mercado de IA generativa era dominado por ferramentas de propósito geral como ChatGPT, Bard (agora Gemini) do Google e Copilot da Microsoft. A FBE antecipou que mais ferramentas surgiriam, incluindo soluções específicas para o setor jurídico.

De fato, nos meses seguintes, testemunhou-se não apenas mais exemplos de uso indevido da IA por advogados, mas também por partes em processos judiciais e até mesmo por juízes. Simultaneamente, grandes provedores de ferramentas jurídicas como LexisNexis e Westlaw começaram a desenvolver suas próprias soluções baseadas em modelos de linguagem de grande escala.

A comissão passou a monitorar não apenas as novas possibilidades oferecidas por essas ferramentas, mas também sua confiabilidade, tentativas de limitar alucinações (informações fabricadas) e a implementação de soluções de verificação de fatos. Uma descoberta importante: mesmo com o avanço do mercado de tecnologia jurídica, os usuários finais ainda enfrentam incertezas sobre a confiabilidade dos resultados gerados por esses modelos.

A Segunda Edição das Diretrizes

Diante da evolução contínua da tecnologia e do cenário regulatório, a FBE lançou uma versão atualizada e ampliada das diretrizes em setembro de 2024. Um fator importante para essa atualização foi o desenvolvimento do Regulamento de IA da União Europeia (AI Act) e a Convenção do Conselho da Europa sobre IA.

No entanto, a comissão observou que a maior parte do trabalho realizado por profissionais jurídicos fora dos tribunais com IA generativa ainda está fora do escopo do AI Act. Além disso, há pouca legislação nacional que regule a prática jurídica ou o uso de tecnologia por profissionais do direito, e os códigos de ética profissional raramente abordam essas questões.

A nova versão das diretrizes incluiu mudanças significativas:

  • Ajustes nas regras originais para acompanhar o crescente nível médio de conhecimento neste campo
  • Inclusão de questões não abordadas na primeira versão, como o impacto sobre propriedade intelectual e meio ambiente
  • Modificação da regra sobre informar clientes sobre o uso de IA, substituindo-a por uma orientação mais ampla sobre garantir transparência interna e externa
  • Adição de referências às novas legislações relevantes
  • Inclusão de exemplos práticos para tornar o documento mais útil para os leitores

Princípios Fundamentais para Advogados que Usam IA

Embora as diretrizes completas estejam disponíveis para consulta (e recomendamos fortemente sua leitura), podemos destacar alguns princípios fundamentais que advogados devem considerar ao usar IA generativa:

  1. Conhecimento e competência: Advogados devem entender as capacidades e limitações das ferramentas de IA que utilizam
  2. Supervisão humana: A responsabilidade final pelo trabalho produzido com assistência de IA permanece com o advogado
  3. Verificação de precisão: Todas as informações geradas por IA devem ser verificadas quanto à sua precisão e relevância
  4. Transparência: Garantir transparência adequada sobre o uso de IA, tanto internamente quanto com clientes
  5. Confidencialidade: Assegurar que o uso de ferramentas de IA não comprometa a confidencialidade dos dados dos clientes
  6. Considerações éticas: Avaliar os impactos éticos, ambientais e de propriedade intelectual do uso de IA

Aproveite o Potencial da IA Mantendo a Integridade Profissional

A IA generativa oferece oportunidades extraordinárias para modernizar a prática jurídica, aumentar a eficiência e melhorar o acesso à justiça. No entanto, seu uso responsável requer vigilância constante e compromisso com os princípios éticos fundamentais da profissão jurídica.

As diretrizes da FBE representam um esforço valioso para fornecer orientação prática em um momento de rápida transformação tecnológica. Ao seguir estas recomendações, advogados podem navegar com mais segurança nas águas desconhecidas da IA, aproveitando seus benefícios enquanto mitigam seus riscos.

Que tal começar a explorar essas possibilidades hoje mesmo? Baixe as diretrizes completas, discuta-as com seus colegas e comece a desenvolver políticas internas para o uso de IA em sua prática jurídica. O futuro da advocacia já está aqui – e com as ferramentas certas, você pode estar na vanguarda dessa transformação.

Perguntas Frequentes

O que é IA generativa e como ela pode ser usada na advocacia?
A IA generativa refere-se a sistemas de inteligência artificial capazes de criar conteúdo novo, como textos, imagens ou áudio, com base nos dados em que foram treinados. No contexto jurídico, essas ferramentas podem ser utilizadas para redigir documentos legais, resumir casos, realizar pesquisas jurídicas, analisar contratos e até mesmo prever resultados de litígios com base em dados históricos.

Na advocacia, os principais usos incluem a criação de minutas de documentos jurídicos, análise de grandes volumes de documentos em discovery, realização de pesquisas jurisprudenciais mais eficientes e automação de tarefas repetitivas. Isso permite que advogados dediquem mais tempo a tarefas que exigem raciocínio jurídico complexo e interação humana.

No entanto, é fundamental entender que estas ferramentas são assistentes e não substitutas para o conhecimento jurídico e o julgamento profissional do advogado. Sua principal função é aumentar a produtividade e eficiência, não tomar decisões jurídicas autônomas.

Quais são os principais riscos do uso de IA generativa por advogados?
O uso de IA generativa por advogados apresenta diversos riscos significativos. O principal deles é o fenômeno das “alucinações” – quando a IA inventa informações falsas, como leis, precedentes ou fatos inexistentes, como ocorreu no caso de Nova York mencionado no artigo. Esse risco é particularmente grave num contexto jurídico, onde a precisão é essencial.

Outro risco importante envolve a confidencialidade e privacidade dos dados. Quando advogados inserem informações sensíveis de clientes em ferramentas de IA públicas ou comerciais, podem estar comprometendo o sigilo profissional, especialmente se os termos de serviço permitirem que o provedor armazene ou utilize essas informações para outros fins.

Há também preocupações relacionadas à responsabilidade profissional e propriedade intelectual. Advogados continuam sendo os responsáveis finais pelo conteúdo produzido, mesmo com assistência de IA. Além disso, questões sobre direitos autorais do material gerado por IA e o uso de materiais protegidos para treinamento destes sistemas continuam sendo áreas juridicamente incertas em muitas jurisdições.

Como garantir a conformidade ética ao utilizar IA na prática jurídica?
Para garantir a conformidade ética ao utilizar IA na prática jurídica, advogados devem implementar diversas medidas de salvaguarda. Primeiramente, é essencial estabelecer um processo rigoroso de verificação de todo o conteúdo gerado por IA, confirmando a precisão de citações legais, fatos e argumentos antes de utilizá-los em qualquer contexto profissional.

A transparência é outro pilar fundamental. Advogados devem adotar políticas claras sobre quando e como informar clientes sobre o uso de IA em seus casos. Esta transparência deve se estender à comunicação interna, garantindo que todos os membros da equipe jurídica estejam cientes de quando e como as ferramentas de IA estão sendo utilizadas.

Finalmente, é crucial manter-se atualizado sobre as regulamentações emergentes relacionadas à IA. Isso inclui não apenas leis específicas sobre tecnologia, como o AI Act europeu, mas também interpretações atualizadas dos códigos de ética profissional que possam abordar o uso de novas tecnologias. Participar de treinamentos e educação continuada sobre IA jurídica também é uma prática recomendada para garantir o uso ético dessas ferramentas.

Que tipos de tarefas jurídicas são mais adequadas para o uso de IA generativa?
As tarefas jurídicas mais adequadas para o uso de IA generativa são aquelas que envolvem processamento de grandes volumes de informação padronizada ou atividades repetitivas. A pesquisa jurídica é uma área particularmente promissora, onde a IA pode rapidamente analisar milhares de casos e estatutos para identificar precedentes relevantes, embora sempre com verificação humana.

A redação de documentos padronizados como contratos básicos, termos de confidencialidade ou minutas preliminares também se beneficia da IA generativa. Estas ferramentas podem criar rascunhos iniciais que advogados então revisam, adaptam e personalizam conforme necessário, economizando tempo significativo nas etapas iniciais.

Análise documental em processos de due diligence ou discovery também é uma aplicação eficiente, onde sistemas de IA podem identificar rapidamente documentos relevantes, cláusulas específicas ou potenciais problemas em grandes conjuntos de dados. No entanto, questões que envolvem julgamento estratégico, negociação complexa ou argumentação criativa continuam sendo melhor geridas diretamente por profissionais humanos, com a IA servindo apenas como ferramenta de apoio.

Como as diretrizes da FBE se relacionam com as leis de proteção de dados?
As diretrizes da FBE complementam as leis de proteção de dados como o GDPR na Europa ou a LGPD no Brasil, fornecendo orientações específicas para o contexto jurídico. Enquanto as leis de proteção de dados estabelecem princípios gerais sobre processamento de informações pessoais, as diretrizes da FBE aplicam esses princípios ao uso específico de IA por advogados.

Um aspecto crucial dessa relação é o princípio da confidencialidade cliente-advogado. As diretrizes enfatizam que advogados devem garantir que o uso de ferramentas de IA não comprometa essa confidencialidade, o que significa avaliar cuidadosamente os termos de serviço de qualquer ferramenta de IA e considerar o uso de soluções on-premise ou com garantias específicas para dados jurídicos sensíveis.

As diretrizes também abordam questões de transparência, que se alinham com os requisitos de informação presentes nas leis de proteção de dados. Advogados devem ser transparentes com clientes sobre como seus dados são processados, incluindo o uso de IA, permitindo assim que clientes façam escolhas informadas sobre o uso de suas informações, respeitando tanto as obrigações éticas profissionais quanto as exigências legais de proteção de dados.

Assista ao vídeo original

Este artigo foi baseado no vídeo abaixo. Se preferir, você pode assistir ao conteúdo original: