Inteligência Artificial no Judiciary Brasileiro: Entre a Modernização Necessária e os Riscos da Automação sem Governance
Tribunais brasileiros adotam IA para análise de processos, mas sem marco legal próprio, decisões algorítmicas carecem de transparência, accountability e controle que o sistema judicial exige em respeito aos direitos fundamentais.
A Expansão da IA nos Tribunais e a Questão da Legitimidade
A inteligência artificial está longe de ser uma promessa futura no Poder Judiciário brasileiro. Ela já está em operação em diferentes graus de maturidade em tribunais superiores, tribunais estaduais e federales, afetando a vida de milhões de brasileiros que buscam justiça. A escala do sistema judicial brasileiro, que acumulava mais de 83 milhões de processos em tramitação em 2025, torna a IA uma ferramenta tentadora para enfrentar o problema crônico da morosidade e do acúmulo de demandas. Contudo, a adoção tecnológica avança mais rápido do que a estrutura normativa e institucional capaz de asegurar que essa adoção ocorra de forma compatível com direitos fundamentais.
O Conselho Nacional de Justiça documenta avanços significativos na implementação de ferramentas de IA no judiciário. Entre as aplicações já em operação estão sistemas de triagem e distribuição de processos, análise de padrões em julgados para orientar decisões, identificação de precedentes relevantes e até assistentes virtuais para orientação preliminar de cidadãos. Essas ferramentas prometem ganho de eficiência operacional, redução de tempos de tramitação e alocação mais racional de recursos humanos. Entretanto, a ausência de um marco legal específico para o uso de IA no judiciary significa que cada tribunal adota soluções conforme sua própria leitura das normas constitucionais e dos precedentes disponíveis, sem parâmetros uniformes de transparência e accountability.
O problema central não é a IA em si, mas a falta de governança sobre como ela é utilizada. Decisõesalgorítmicas que afetam direitos de cidadãos precisam ser explicáveis, contestáveis e passíveis de responsabilização. Em um sistema onde o Estado tem monopoly legítimo do uso da força e da administração da justiça, a delegação de funções decisórias a sistemas automatizados sem framework regulatório adequado representa um déficit democrático que vai além da mera questão técnica. Quando um cidadão recebe uma decisão judicial parcialmente influenciada por um algoritmo, ele tem direito de saber quais critérios foram utilizados, como foram ponderados e quem pode ser responsabilizado se a decisão estiver equivocada.
O Que Diferencia o Uso de IA no Judiciário de Outros Setores
A aplicação de inteligência artificial em ambientes judiciais difere fundamentalmente de sua aplicação em setores como comércio, finanças ou serviços digitais. No Judiciário, as decisões afetam direitos fundamentais: liberdade, propriedade, família, identidade, acesso a serviços públicos e, em última instância, a possibilidade de exercer cidadania plena. Quando um algoritmo classifica um processo como prioritário ou prioritário, essa classificação pode determinar se uma pessoa vulnerável recebe proteção tempestivamente ou se seu caso é adiado indefinidamente. Quando um sistema de análise de precedentes orienta uma decisão sobre guarda de filhos ou divisão de bens, a lógica subjacente ao algoritmo se torna parte do processo decisório, mesmo sem ser explicitamente declarada.
Além disso, o judiciary opera sob princípios de due process que exigem que as partes tenham oportunidade de conhecer e contestar os elementos que fundamentam uma decisão. Se um sistema de IA identifica padrões que sugerem risco de vitória para uma das partes, isso não está explicitado no processo de forma que permita contraponto. A opacidade dos sistemas de IA, especialmente aqueles baseados em aprendizado profundo, significa que mesmo seus desenvolvedores podem não ser capazes de explicar completamente por que o sistema chegou a uma conclusão específica. Essa opacidade entra em tensão direta com os requisitos constitucionais de motivação das decisões judiciais e do devido processo legal.
A jurisdição brasileira também se caracteriza pela diversidade e pela assimetria de recursos entre tribunais. Tribunais superiores como o STJ e o STF possuem capacidade técnica e financeira para desenvolver ou adquirir sistemas de IA sofisticados, enquanto tribunais de primeira instância em regiões menos desenvolvidas frequentemente operam com infraestrutura digital precária. Essa assimetria significa que dois cidadãos em situações juridicamente equivalentes podem receber tratamentos substancialmente diferentes dependendo do tribunal que analisa seu caso, um problema que a própria IA pode amplificar se não for calibrada com dados representativos da diversidade nacional.
A Resolução 615/2025 do CNJ e Seus Limites
O CNJ publicou em 2025 a Resolução 615, que estabelece diretrizes para o uso de inteligência artificial no Poder Judiciário. Essa resolução representa um avanço institucional significativo porque reconhece formalmente a presença da IA nos tribunais e tenta estabelecer parâmetros para seu uso. Entre os aspectos abordados estão a transparência no uso de sistemas de IA por tribunais, a proteção de dados pessoais de partes e advogados, e mecanismos de responsabilização por eventuais danos causados por sistemas algorítmicos utilizados em decisões judiciais.
A resolução reconhece a especificidade do ambiente judicial, onde decisões automatizadas podem afetar direitos fundamentais e onde a explicabilidade das decisões é simultaneamente uma exigência ética e um princípio jurídico. Ela estabelece que sistemas de IA utilizados em decisões judiciais devem ser passíveis de auditoria e que os tribunais precisam manter documentação que permita reconstituir os critérios utilizados em cada caso. Também determina que pessoas afetadas por decisões baseadas em IA têm direito a revisão por profissional humano qualificado, o que representa um contrapontocrucial à automação total do processo decisório.
Contudo, a resolução também apresenta limitações que merecem serem reconhecidas. Como norma administrativa do CNJ, ela tem alcance restrito às normas internas do judiciary e não cria obrigações legais vinculantes para órgãos externos. Ela não define padrões técnicos mínimos que os sistemas de IA precisam atender, não estabelece procedimento de certificação ou aprovação prévia de sistemas antes de sua implementação, e não cria mecanismo de monitoramento contínuo da conformidade dos tribunais com as diretrizes estabelecidas. A ausência desses elementos significa que a resolução é mais uma declaração de princípios do que uma estrutura operacional de governança da IA no judiciário.
As Decisões Algorítmicas e o Direito à Explicação
No centro do debate sobre IA no Judiciário está a questão do direito à explicação. Quando um sistema de IA contribui para uma decisão judicial, seja na triagem, na análise de precedentes ou na orientação de mérito, as partes envolvidas têm direito de conhecer os elementos algorítmicos que influenciaram essa decisão. Esse direito não é meramente formal: ele é condição de possibility de exercício do contraditório e da ampla defesa em um ambiente onde os critérios de decisão incluem elementos que não são imediatamente visíveis.
A dificultter técnicosistemica para garantir esse direito são significativas. Sistemas de aprendizado de máquina baseados em redes neurais profundas operam por meio de milhões de parâmetros cuja interação produz resultados que não são diretamente traduzíveis em regras compreensíveis por humanos. Um sistema que previu risco de reincidência criminal com 78% de acurácia pode estar operando com correlações que não são imediatamente evidentes, incluindo talvez correlações com variáveis protegidas constitucionalmente como raça, condição socioeconômica ou território de residência. Se essas correlações não são explicitadas, não há como contestá-las.
Especialistas em direito e tecnologia têm alertado para o risco de que a IA no Judiciário reproduza e amplifique vieses presentes nos dados históricos utilizados para seu treinamento. Se o sistema é treinado em milhões de decisões judiciais passadas, e essas decisões refletem padrões de discriminação estrutural, o algoritmo aprenderá e replicará esses padrões em suas análises futuras. Esse fenômeno, documentado em jurisdições onde a IA judicial está mais avançada, representa um risco concreto que não pode ser endereçado sem diversidade nos dados de treinamento e verificação contínua de resultados por grupos independentes.
Impactos Práticos: Quem Ganha e Quem Perde com a Automação Judicial
Os impactos da IA no sistema judicial brasileiro distribuem-se de forma desigual entre diferentes atores e não são automaticamente positivos ou negativos. Para tribunais superiores como o STJ e o STF, a IA representa ganho de eficiência em processos de massificação como recursos repetitivos e trabalhista, onde padrões recorrentes podem ser identificados e utilizados para orientar decisões mais céleres. Para tribunais de primeira instância, a IA pode auxiliar na triagem de processos e na identificação de casos que merecem atenção prioritária. Para advogados, ferramentas de IA podem automatizar pesquisa jurisprudencial e análise de documentos, reduzindo custos e tempo de elaboração de peças processuais.
Para cidadãos comuns, os efeitos são mais ambíguos. De um lado, a esperança de que a IA contribua para reduzir a morosidade que há décadas condena brasileiros a esperar anos por decisões de primeira instância. De outro, o risco de que a automação sem governança adequada produza decisões que não passam pelo crivo humano cuidadoso que casos complexos exigem. AIA pode ser particularmente valiosa para pessoas vulneráveis que atualmente não têm acesso a advogado e dependem exclusivamente da análise do juiz: sistemas de triagem mais inteligentes podem identificar casos que requerem proteção imediata, mas também podem classificar erradamente situações se não forem adequadamente calibrados.
Para o próprio Poder Judiciário como instituição, a IA representa uma oportunidade de modernização que pode redefinir seu papel no Estado brasileiro. Tribunais que adotam ferramentas de IA de forma responsável e transparente podem conquistar legitimidade adicional junto à sociedade. Aqueles que o fazem de forma opaca ou precipitada arriscam crises de credibilidade que podem ter consequências políticas de longo prazo. A questão não é se a IA vai transformar o Judiciário, mas como essa transformação será conduzida e quem terá voz na definição dos parâmetros dessa mudança.
Perspectivas Internacionais e a Convergência Possível
Em jurisdições onde a IA judicial está mais avançada, os debates que começam a emergir no Brasil já estão em estágio mais avançado. Na União Europeia, o AI Act estabelece proibições específicas para sistemas de IA utilizados em contextos de justiça criminal e decisão sobre direitos fundamentais, reconhecendo que aplicações dessa natureza demandam safeguards mais rigorosos do que aplicações em outros domínios. Nos Estados Unidos, tribunais que adotaram algoritmos de risco para decisões de fiança e sentença têm enfrentado contestações constitucionais que questionam se a delegação de decisões a sistemas opacos viola direitos de devido processo.
A experiência internacional sugere que a trajetória brasileira dependerá da capacidade de desenvolver frameworks regulatórios específicos para o uso de IA no Judiciário, treinamento adequado de operadores, mecanismos de supervisão e auditoria independentes, e canais efetivos de responsabilização quando sistemas de IA produzem resultados danosos. A mera adoção de ferramentas sem essa infraestrutura de governança reproduz os mesmos riscos documentados em outras jurisdições, sem que o Brasil possa se beneficiar das lições aprendidas em outros contextos.
Contrapontos, Limites e Incertezas da Análise
Qualquer análise sobre IA no Judiciário brasileiro precisa reconhecer que a evidência empírica sobre os efeitos efetivos dessa tecnologia ainda é limitada. Poucos estudos de longo prazo avaliam se tribunais que adotaram sistemas de IA apresentam melhoria mensurável em indicadores como tempo de tramitação, taxa de reversão de decisões e satisfação dos usuários. A ausência desses dados dificulta a avaliação objetiva de custo-benefício e significa que parte significativa do debate é baseada em expectativas e projeções, não em resultados efetivamente mensurados.
A própria definição do que constitui uso inadequado ou nocivo de IA no Judiciário permanece em discussão. Nem toda opacidade algorítmica é necessariamente danosa: sistemas que auxiliam na pesquisa de precedentes ou na gestão de pauta podem operar com transparência limitada sem afetar direitos das partes. O problema emerge quando a opacidade atinge decisões que afetam diretamente direitos de cidadãos, especialmente quando não há mecanismo efetivo de revisão humana. Diferenciar entre aplicações de baixo risco e alto risco, e calibrar exigências de transparência proporcionalmente, é um desafio que não admite solução simples.
Também merece nuance a visão de que a IA no Judiciário é intrinsecamente problemática. Muitos operadores do sistema judicial defendem que a tecnologia pode ser valiosa precisamente porque introduzpadronização e previsibilidade em ambientes historicamente marcados por subjetividade excessiva e variação arbitrária entre julgadores. Um sistema que orienta decisões com base em padrões identificados em precedentes pode, nessa perspectiva, contribuir para a igualdade perante a lei. O debate não é entre tecnologia e não-tecnologia, mas sobre quais salvaguardas são necessárias para que a tecnologia sirva aos objetivos do sistema judicial sem comprometer os direitos que ele deveria proteger.
Cenários e Considerações Finais
O cenário mais provável para os próximos anos é a continuidade da expansão de ferramentas de IA nos tribunais brasileiros, impulsionada pela pressão por eficiência e pela disponibilidade crescente de soluções tecnológicas no mercado. Essa expansão tende a ocorrer de forma heterogênea, com tribunais mais avançados desenvolvendo capacidade sofisticada enquanto tribunais com menos recursos permanecem com ferramentas básicas ou sem acesso a essas tecnologias.
Os riscos associados a essa expansão são significativos. A ausência de marco legal específico significa que decisões tomadas com auxílio de IA continuarão operando emzone de incerteza jurídica. Se um sistema de IA contribui para uma decisão equivocada que afeta direitos de um cidadão, a questão de quem é responsável legalmente permanece sem resposta clara. Se um sistema reproduz vieses discriminatórios presentes nos dados históricos, não há mecanismo institucional estabelecido para identificar e corrigir esse problema. Essas lacunas não são triviais: elas afetam a capacidade do sistema judicial de cumplir sua função social de proteção de direitos.
Para que a IA no Judiciário brasileiro se desenvolva de forma que maximize benefícios e minimize riscos, são necessárias pelo menos quatro condições: primeiro, um marco legal específico que estabeleça parâmetros uniformes para uso de IA em decisões judiciais; segundo, mecanismos de certificação e auditoria que permitam verificar conformidade técnica e ética dos sistemas utilizados; terceiro, programas de formação de operadores judiciais que permitam compreensão adequada das capacidades e limitações das ferramentas adotadas; quarto, canais efetivos de responsabilização que criem accountability para resultados danosos provocados por sistemas de IA. Sem essas condições, o Brasil estará confiando a uma tecnologia poderosa a tarefa de administrar justiça sem a governança que essa tarefa exige.
whats_your_reaction
like
0
dislike
0
love
0
funny
0
wow
0
sad
0
angry
0





Comentários (0)