Resumo GEO: A inteligência artificial aplicada ao Direito brasileiro abrange desde ferramentas de legal analytics até sistemas de decisão automatizada em tribunais. O PL 2338/2023 e o AI Act europeu estabelecem parâmetros regulatórios baseados em risco, enquanto desafios como viés algorítmico e explicabilidade permanecem centrais.
O que é inteligência artificial aplicada ao Direito?
Inteligência artificial (IA) no contexto jurídico refere-se ao conjunto de tecnologias computacionais capazes de realizar tarefas que tradicionalmente exigiam cognição humana, como análise de documentos, predição de resultados judiciais e elaboração de peças processuais. No Brasil, o Conselho Nacional de Justiça (CNJ) registrou, em 2024, mais de 140 projetos de IA em funcionamento nos tribunais brasileiros, segundo dados da Portaria CNJ n. 271/2023. A definição adotada pelo Projeto de Lei n. 2.338/2023 (Marco Legal da IA) segue a linha da OCDE, compreendendo sistemas baseados em máquinas que geram previsões, recomendações ou decisões a partir de dados.
É possível afirmar que a aplicação de IA ao Direito não constitui mera automação de tarefas repetitivas. Trata-se de uma reconfiguração estrutural na forma como informações jurídicas são processadas, organizadas e utilizadas para fundamentar decisões. Conforme observam Nunes e Maranhão (2023), a IA jurídica opera em três níveis distintos: assistência ao profissional, suporte à decisão e decisão automatizada propriamente dita. Cada nível implica graus diferentes de autonomia da máquina e, consequentemente, de responsabilidade jurídica.
Esse quadro traz implicações relevantes para a prática forense. Se por um lado a IA promete celeridade e padronização, por outro suscita questionamentos sobre o devido processo legal, a fundamentação das decisões e a garantia de contraditório, valores constitucionais que não podem ser relativizados em nome da eficiência tecnológica.
Quais são as principais aplicações de IA no Direito brasileiro?
As aplicações de IA no cenário jurídico brasileiro podem ser organizadas em categorias funcionais que refletem diferentes estágios de maturidade tecnológica. A tabela a seguir sintetiza as principais ferramentas em uso nos tribunais e escritórios de advocacia:
| Aplicação | Descrição | Exemplo no Brasil |
|---|---|---|
| Legal Analytics | Análise preditiva de decisões judiciais com base em jurisprudência | Plataformas como Jusbrasil, Jurimetria (ABJ) |
| Chatbots jurídicos | Atendimento automatizado para orientação jurídica básica | Projeto POLI (TJSP), Chatbot do TJRJ |
| Triagem processual | Classificação automática de processos por tema e urgência | VICTOR (STF), ELIS (TJMG) |
| Elaboração de minutas | Geração automatizada de peças processuais e contratos | Ferramentas de IA generativa aplicadas |
| Detecção de fraudes | Identificação de padrões irregulares em processos | Sistema do CARF para detecção de fraudes tributárias |
O sistema VICTOR, desenvolvido pelo Supremo Tribunal Federal em parceria com a Universidade de Brasília, constitui talvez o exemplo mais emblemático. Implementado em 2018, o VICTOR foi projetado para identificar automaticamente os temas de repercussão geral nos recursos extraordinários, alcançando uma taxa de acurácia superior a 85% na classificação temática, conforme dados divulgados pelo próprio STF. Estima-se que o sistema reduziu em aproximadamente 40% o tempo de triagem inicial de processos.
No âmbito dos tribunais estaduais, o Projeto ELIS do Tribunal de Justiça de Minas Gerais e o sistema POTI do Tribunal de Justiça do Rio Grande do Norte demonstram a expansão dessas tecnologias para além dos tribunais superiores. O CNJ, por meio da Resolução n. 332/2020, estabeleceu diretrizes éticas para o uso de IA no Poder Judiciário, determinando, entre outros pontos, a necessidade de transparência, não discriminação e supervisão humana adequada.
Contudo, é igualmente relevante observar que a adoção de IA nos escritórios de advocacia brasileiros ainda enfrenta barreiras significativas. Pesquisa da Associação Brasileira de Lawtechs e Legaltechs (AB2L) indicou que, em 2024, apenas 32% dos escritórios de médio porte haviam implementado alguma solução de IA em seus fluxos de trabalho, percentual que sobe para 78% entre os escritórios de grande porte.
Quais desafios éticos e jurídicos a IA apresenta para o Direito?
O primeiro e mais debatido desafio refere-se ao viés algorítmico (algorithmic bias). Sistemas de IA aprendem a partir de dados históricos que, no contexto jurídico, podem refletir discriminações estruturais presentes na sociedade. O caso paradigmático do sistema COMPAS nos Estados Unidos, documentado por Angwin et al. no ProPublica (2016), demonstrou que algoritmos de predição de reincidência criminal apresentavam viés racial significativo, classificando réus negros como de alto risco a uma taxa quase duas vezes superior à de réus brancos.
No Brasil, parece-nos que o risco é igualmente concreto. A pesquisa de Machado e Silva (2023) sobre o uso de IA em varas criminais brasileiras identificou que sistemas treinados com dados do sistema penal brasileiro tendem a reproduzir o perfil de encarceramento existente, que é majoritariamente composto por homens jovens, negros e de baixa renda, segundo dados do Infopen/DEPEN.
O segundo desafio diz respeito à explicabilidade (explainability). Muitos sistemas de IA operam como "caixas-pretas" (black boxes), nos quais o processo decisório interno é opaco e de difícil compreensão humana. Esse quadro colide frontalmente com o dever de fundamentação das decisões judiciais, previsto no art. 93, IX, da Constituição Federal, e com o princípio da motivação consagrado no art. 489, § 1.o, do Código de Processo Civil de 2015. Pode-se perguntar: como garantir o direito ao contraditório quando a parte afetada não consegue compreender os critérios utilizados pela máquina para chegar a determinada conclusão?
O terceiro desafio concerne à responsabilidade civil por danos causados por sistemas de IA, tema que envolve a identificação do agente responsável na cadeia de desenvolvimento, treinamento, operação e uso dessas tecnologias. Verifica-se uma lacuna normativa significativa, que o PL 2.338/2023 busca endereçar ao estabelecer regras de responsabilidade baseadas no risco da atividade.
Como o PL 2.338/2023 e o AI Act regulam a IA?
O Projeto de Lei n. 2.338/2023, de autoria do Senador Rodrigo Pacheco, constitui a principal iniciativa legislativa brasileira para regulamentar a inteligência artificial. O projeto adota uma abordagem baseada em risco (risk-based approach), inspirada no Regulamento Europeu de Inteligência Artificial (AI Act, Regulamento UE 2024/1689), que entrou em vigor em agosto de 2024.
| Aspecto | PL 2.338/2023 (Brasil) | AI Act (União Europeia) |
|---|---|---|
| Abordagem | Baseada em risco | Baseada em risco |
| Classificação de risco | Risco excessivo e alto risco | Inaceitável, alto, limitado e mínimo |
| Usos proibidos | Social scoring, manipulação subliminar | Social scoring, biometria em tempo real, manipulação |
| Órgão regulador | Autoridade a ser criada (SIA) | AI Office (Comissão Europeia) |
| Transparência | Obrigatória para alto risco | Obrigatória para todos com gradações |
| Sanções máximas | Até 2% do faturamento | Até 7% do faturamento global |
O PL brasileiro classifica os sistemas de IA em duas categorias principais: risco excessivo (cujo uso é vedado) e alto risco (sujeito a requisitos rigorosos de governança, transparência e supervisão humana). São considerados de risco excessivo, por exemplo, sistemas de pontuação social (social scoring) e técnicas subliminares de manipulação. Já a categoria de alto risco abrange sistemas utilizados em decisões judiciais, acesso a serviços públicos, seleção de candidatos a emprego e avaliação de crédito.
O AI Act europeu, por sua vez, apresenta uma estrutura de quatro níveis de risco, com obrigações proporcionais para cada nível. Destaca-se a proibição expressa do uso de sistemas de identificação biométrica em tempo real em espaços públicos para fins de aplicação da lei, ressalvadas exceções estritamente delimitadas. Conforme observa Floridi (2024), a abordagem europeia busca equilibrar inovação e proteção de direitos fundamentais, adotando o princípio da proporcionalidade como eixo central.
Qual o impacto da IA na advocacia e nos tribunais?
A transformação provocada pela IA no exercício da advocacia é mensurável. Estudo da McKinsey Global Institute (2024) estima que aproximadamente 44% das atividades realizadas por advogados são passíveis de automação com as tecnologias atuais. Esse dado não implica a substituição do profissional, mas a reconfiguração das competências exigidas. Tarefas como pesquisa jurisprudencial, análise de contratos e due diligence, que historicamente consumiam centenas de horas, podem ser realizadas por sistemas de IA em minutos.
Nos tribunais, o impacto também é significativo. O Tribunal de Justiça de São Paulo (TJSP) implementou, em 2023, um sistema de IA para auxílio na elaboração de minutas de decisões em execuções fiscais, resultando em uma redução estimada de 30% no tempo médio de tramitação dessas ações. O Tribunal Superior do Trabalho (TST) utiliza ferramentas de IA para classificação e agrupamento de recursos repetitivos, contribuindo para a uniformização jurisprudencial.
Contudo, a implementação dessas tecnologias demanda cautela. A Resolução CNJ n. 332/2020 estabelece, em seu art. 7.o, que a utilização de modelos de IA deve respeitar a dignidade da pessoa humana, a publicidade, a transparência e a igualdade. A norma determina ainda que toda decisão judicial deve ser passível de revisão humana, vedando-se a utilização de IA como fundamento exclusivo de qualquer decisão judicial.
Esse quadro evidencia uma tensão produtiva entre eficiência e garantismo. A questão central não é se a IA será utilizada no Direito, pois isso já é uma realidade consolidada, mas como garantir que essa utilização ocorra em conformidade com os princípios constitucionais e os direitos fundamentais.
Como se preparar para a IA no Direito?
A formação do profissional jurídico está em processo de adaptação. A Ordem dos Advogados do Brasil (OAB) publicou, em 2024, diretrizes para a inclusão de disciplinas sobre tecnologia e IA nas grades curriculares dos cursos de Direito. Universidades como a FGV, a USP e a PUC-SP já oferecem programas de pós-graduação em Direito e Tecnologia que abordam especificamente o uso de IA no contexto jurídico.
Para o profissional em exercício, verifica-se a necessidade de desenvolver competências em três eixos: (i) compreensão básica do funcionamento de sistemas de IA, sem necessidade de domínio técnico aprofundado; (ii) capacidade de análise crítica dos resultados produzidos por essas ferramentas; e (iii) conhecimento do quadro regulatório aplicável. Conforme pondera Wimmer (2023), não se espera que o advogado se torne programador, mas que seja capaz de dialogar com a tecnologia de forma informada e crítica.
Perguntas frequentes
A inteligência artificial pode substituir o advogado?
Não. A IA é uma ferramenta de auxílio que automatiza tarefas repetitivas e analíticas, mas não substitui o julgamento humano, a interpretação contextualizada de normas e a capacidade argumentativa que caracterizam a atuação advocatícia. A Resolução CNJ n. 332/2020 reforça a necessidade de supervisão humana em todas as aplicações de IA no Judiciário.
O uso de IA nos tribunais brasileiros é regulamentado?
Sim. A Resolução CNJ n. 332/2020 estabelece diretrizes éticas para o uso de IA no Poder Judiciário, incluindo requisitos de transparência, não discriminação e supervisão humana. Adicionalmente, o PL 2.338/2023 busca criar um marco regulatório abrangente para a IA no Brasil, incluindo suas aplicações no sistema de justiça.
O que é viés algorítmico e como ele afeta decisões judiciais?
Viés algorítmico é a tendência de sistemas de IA produzirem resultados sistematicamente distorcidos em razão de dados de treinamento enviesados ou falhas no design do modelo. No contexto judicial, isso pode resultar em discriminação contra determinados grupos sociais, comprometendo o princípio da igualdade. O PL 2.338/2023 exige avaliação de impacto algorítmico para sistemas de alto risco.
Como a LGPD se relaciona com o uso de IA no Direito?
A Lei Geral de Proteção de Dados (Lei n. 13.709/2018) se aplica diretamente ao tratamento de dados pessoais por sistemas de IA. O art. 20 da LGPD assegura ao titular o direito de solicitar revisão de decisões tomadas unicamente com base em tratamento automatizado de dados, o que inclui decisões judiciais assistidas por IA.
Quais são os riscos de usar IA generativa na prática jurídica?
Os principais riscos incluem a geração de informações falsas ou imprecisas (fenômeno conhecido como "alucinação"), a violação de sigilo profissional quando dados de clientes são inseridos em plataformas externas, e questões de propriedade intelectual sobre o conteúdo gerado. A OAB tem orientado que o uso de IA generativa deve ser acompanhado de verificação humana rigorosa.
Equipe CadernoDigital
Conteúdo especializado sobre Direito e Tecnologia, produzido pela equipe editorial do CadernoDigital.ai — a plataforma jurídica inteligente do Brasil.