Hermenêutica Jurídica na Era da Inteligência Artificial: Quando Algoritmos Interpretam o Direito
A introdução de sistemas de inteligência artificial no sistema judicial brasileiro coloca em xeque conceitos fundamentais da filosofia do direito, desde a hermenêutica de Gadamer até a teoria da argumentação de Alexy.
O direito interpretativo diante da revolução algorítmica
A história do pensamento jurídico moderno é, em grande medida, uma história da interpretação. Desde que Hans-Georg Gadamer sistematizou os fundamentos da hermenêutica filosófica, estabelecendo que toda compreensão envolve um movimento circular entre o todo e a parte, horizonte do intérprete e horizonte do texto, a filosofia do direito passou a compreender a aplicação das normas como um ato que transcende a mera subsunção lógica. O juiz não apenas decodifica regras preexistentes; ele as recria no encontro entre o passado normativo e o presente fático. Essa compreensão profundamente humanista do ato interpretativo encontra, agora, um desafio sem precedentes: a incorporação de sistemas de inteligência artificial nos processos de triagem, classificação e até elaboração de decisões judiciais.
No Brasil de 2026, tribunais utilizam algoritmos como o Victor, do Supremo Tribunal Federal, e o STJ Logos, do Superior Tribunal de Justiça, para processar volumes imensos de dados processuais, identificar padrões e sugerir caminhos hermenêuticos. O Supremo Tribunal Federal empregou ainda o sistema Maria para análise de processos e elaboração de minutas, enquanto o Rafa 2030 classifica processos segundo os objetivos de desenvolvimento sustentável da ONU. Essas ferramentas não se limitam a operações mecânicas de busca e organização. Elas intervêm, de forma crescente, na construção do sentido normativo, influenciando quais recursos chegam ao mérito, quais teses merecem destaque e, em última análise, como o direito é compreendido e aplicado. A questão filosófica central que se impõe, portanto, não é apenas técnica, mas profundamente hermenêutica: pode uma máquina participar do círculo hermenêutico sem, ao fazê-lo, alterar radicalmente a natureza do entendimento jurídico?
O círculo hermenêutico e suas condições de possibilidade
Gadamer sustentou que a compreensão nunca é neutro nem transparente. Ela se dá sempre a partir de uma situação hermenêutica concreta, na qual o intérprete carrega pré-conceitos, tradições e expectativas que são ao mesmo tempo condição e limite do entendimento. Esse movimento circular, lejos de constituir um erro lógico, é a própria estrutura da compreensão humana. O juiz que analisa um recurso extraordinário não parte do zero. Ele carrega consigo décadas de jurisprudência, convicções teóricas, pressupostos axiológicos e a própria história institucional do STF. Essa carga hermenêutica não é um obstáculo a ser eliminado, mas o fundamento sobre o qual se ergue o entendimento.
Ora, quando um sistema de inteligência artificial é inserido nessa equação, uma transformação qualitativa ocorre. Os modelos fundacionais que sustentam ferramentas como o Victor são treinados em bases textuais massivas, que incluem milhares de decisões judiciais, doutrinas jurídicas e textos normativos. Ao operar como filtro para recursos e sugestões hermenêuticas, o algoritmo não é neutro. Ele carrega, de forma implícita e não transparente, as escolhas incorporadas em sua fase de treinamento. Os vieses da amostra de treinamento se tornam, de certo modo, os pré-conceitos do sistema. Diferentemente dos pré-conceitos humanos, que podem ser explicitados, questionados e corrigidos pelo próprio sujeito, os vieses algorítmicos operam como uma espécie de pré-compreensão inacessível ao operador do sistema. Essa assimetria coloca um problema que a filosofia hermenêutica clássica não antecipou: como exercemos a fusão de horizontes com um interlocutor que não tem horizonte próprio no sentido gadameriano?
Constitucionalismo contemporâneo e a tensão com a eficiência algorítmica
O neoconstitucionalismo brasileiro, consolidado após a Constituição de 1988, trouxe consigo uma transformação fundamental na compreensão do direito. As normas constitucionais passaram a ser vistas não como promessas programáticas, mas como normas com força vinculante imediata, exigindo interpretação que promova a máxima eficácia dos direitos fundamentais. A dignidade da pessoa humana, o Estado Democrático de Direito e a valorização dos direitos fundamentais tornaram-se coordenadas hermenêuticas que orientam toda a ordem jurídica. Juristas como Luís Roberto Barroso e Lenio Streck aprofundaram esse paradigma, sustentando que a Constituição não é apenas uma lei superior, mas um projeto de sociedade que demanda decisões interpretativas consistentes com seus fundamentos axiológicos.
Essa visão do direito constitucional como um sistema vivo e principiológico colide, de forma significativa, com certain aspects da aplicação de inteligência artificial no judiciário. O neoconstitucionalismo exige que cada decisão seja contextualizada, historicamente situada e orientada por uma leitura integral da Constituição. A ponderação de princípios, nos termos da teoria de Robert Alexy, não é uma operação matemática entre valores abstratos, mas um exercício argumentativo que busca identificar, no caso concreto, qual princípio deve prevalecer mediante razões proporcionais e adequadas. A máxima da proporcionalidade em sentido estrito, que exige o sopesamento entre meios e fins, é uma ferramenta de controle da rationalidade decisória, não um algoritmo de otimização. Contudo, quando sistemas de IA são empregados para classificar recursos, identificar temas de repercussão geral e até sugerir caminhos interpretativos, existe o risco de que a eficiência processual substitua, de fato, o weighting substantivo de princípios constitucionais.
A teoria da argumentação de Alexy e seus desafios diante da automatização
Robert Alexy construiu uma teoria discursiva do direito na qual a decisões jurídicas são validamente fundamentadas quando passam pelo crivo de um procedimento argumentativo racional. Em sua estrutura, as regras práticas passam por testes de universalizabilidade, coerência e adequação a princípios constitucionais. A ponderação não é um ato arbitrário, mas uma análise estruturada que identifica a lei de colisão entre princípios, estabelece condições de precedência e assegura que a decisão possa ser justificada mediante razões comprensíveis. Esse modelo exige que o intérprete assuma uma posição activa no debate racional, oferecendo justificações que possam ser avaliadas por outros participantes do discurso prático.
A questão que se coloca é como esse modelo se compatibiliza com sistemas de IA que operam por padrões estatísticos e probabilísticos. Quando o STJ Logos analisa um processo e sugere uma classificação temática, ele não está argumentando no sentido alexyano. Ele está identificando padrões linguísticos que correspondem a categorias jurisprudenciais predefinidas. A diferença entre essas duas operações não é apenas de eficiência, mas de natureza. A argumentação jurídica alexyana pressupõe um sujeito que responde por suas decisões e pode ser chamado a justificá-las. O sistema algorítmico, tal como implementado atualmente, não oferece essa possibilidade. Ele não pode ser interrogado sobre as razões de sua classificação, não pode explicar o peso atribuído a cada fator, não pode participar de um discurso prático em que suas conclusões são questionadas e refutadas. Essa diferença não significa que a IA não possa ser útil ao direito; significa que sua incorporação precisa ser piensada não como extensão da argumentação humana, mas como ferramenta a serviço de uma atividade que continua sendo, em seu núcleo, exclusivamente humana.
O reconhecimento jurisprudencial dos limites da prova algorítmica
Em decisão recente e paradigmática, o Superior Tribunal de Justiça estabeleceu um precedente significativo ao rejeitar relatórios policiais gerados por inteligência artificial que não passaram por validação humana de especialistas. O tribunal enfatizou que as chamadas "alucinações" dos modelos de linguagem, isto é, a tendência dos sistemas de IA generativa de produzir informações coerentes mas factual mente incorretas, não podem substituir evidências forenses empíricas. A natureza probabilística dos grandes modelos de linguagem não é compatível com o standard probatório exigido no direito penal, que demanda certeza razoável quanto aos fatos constitutivos da imputação. Esse precedente, que ecoa debates semelhantes em jurisdições norte-americanas e europeias, representa o reconhecimento de que a automation não pode, por si só, garantir as garantias constitucionais do devido processo legal.
A resolução 615/2025 do Conselho Nacional de Justiça, que disciplinou o uso de inteligência artificial no Poder Judiciário, estabeleceu diretrizes que reafirmam o caráter meramente auxiliar da IA na atividade jurisdicional. O normativo enfatiza a necessidade de transparência, controle e supervisão humana. Contudo, a efetividade desses princípios depende de uma compreensão aprofundada, por parte dos operadores do direito, das capacidades e limitações dos sistemas algorítmicos. A simples existência de regras de supervisão humana não garantiza que essa supervisão seja cognitivamente possível ou materialmente adequada. Se o juiz não compreende como o sistema de IA chegou a uma determinada sugestão, a supervisão formal se torna uma ficção procedimental sem conteúdo substantivo.
Direito como integridade: o que Dworkin diria sobre os algoritmos
Ronald Dworkin desenvolveu a ideia do direito como integridade como uma alternativa ao positivismo jurídico de Herbert Hart. Em sua teoria, a interpretação jurídica não é uma reconstrução de regras anteriormente positadas, mas uma construção prospectiva que busca a melhor leitura possível do direito como um projeto coerente e justo. O juiz Dworkiniano, que ele denominou Hercules, seria capaz de oferecer, para cada caso, uma interpretação que maximiza a coerência e a equidade do sistema jurídico como um todo, considerando a história institucional e os princípios que a animam. Essa visão pressupõe que a atividade interpretativa é essencialmente moral e política, involucrando uma avaliação do que o direito deveria ser, e não apenas do que ele positivamente estabelece.
O desafio que os sistemas de IA apresentam a essa visão é profundo. Se a interpretação jurídica é, em sua essência, um ato de integridade narrativa e moral, a delegação de qualquer parcela desse processo a um sistema algorítmico representa uma mudança de natureza, não apenas de grau. Um algoritmo não pode comprometer-se com a integridade do sistema jurídico porque não tem compreensão do que é a integridade no sentido moral e político que Dworkin emprega. Ele pode identificar padrões e sugerir caminhos, mas não pode avaliar se esses caminhos são os mais justos, os mais coerentes com a melhor leitura da tradição jurídica, ou os mais adequados ao projeto de sociedade que a Constituição consagra. Isso não significa que a IA deva ser rejeitada; significa que seu uso precisa ser cuidadosamente delimitado para que não se transforme em instrumento de erosão dos fundamentos axiológicos do Estado Democrático de Direito.
Os riscos de uma hermenêutica algorítmica para a democracia judicial
A incorporação de inteligência artificial no sistema judicial brasileiro não é um processo neutro. Ele carrega consigo opções políticas e axiológicas que precisam ser explicitadas e debatidas. Os modelos fundacionais que alimentam os sistemas de IA são treinados em bases de dados que refletem as decisões judiciais do passado. Se essas decisões passaram ao largo de desigualdades estruturais, vícios de racismo institucional, padrões de patriarcado e exclusão social, os vieses histórico-jurídicos serão reproduzidos e potencializados pelos sistemas algorítmicos. A operação aparentemente técnica de um sistema de IA que classifica recursos pode, de fato, selecionar quais causas recebem atenção do judiciário com base em padrões que reproduzem desigualdades históricas.
O Projeto de Lei 2.338/2023, que estabelece um marco regulatório para a inteligência artificial no Brasil, prevê mecanismos de governança, avaliação de impacto algorítmico e regimes diferenciados de responsabilidade civil. Contudo, a eficácia desses instrumentos depende de uma compreensão aprofundada, por parte do legislador e dos reguladores, dos desafios hermenêuticos que a IA apresenta ao direito. Não basta estabelecer requisitos de transparência formal. É necessário assegurar que a transparência seja cognitivamente acessível, que os impactos algorítmicos sejam compreensíveis e que os cidadãos afetados por decisões baseadas em IA possam efetivamente compreendê-las e contestá-las. A participação humana nas decisões judicial, exigida pela resolução 615/2025 do CNJ, precisa ser materialmente significativa, não apenas formalmente presente.
O desafio da intelligibilidade para o advogado contemporâneo
A doutrina processual contemporânea tem identificado o surgimento do chamado devido processo legal tecnológico, cuya formulação ainda está em construção. Abboud e Pereira, em trabalhos recentes, propuseram a reinterpretação das garantias processuais à luz da utilização de sistemas informatizados no âmbito jurisdicional. Essa construção doutrinária aponta para a necessidade de adaptar instrumentos jurídicos já existentes, como o art. 20 da Lei Geral de Proteção de Dados, que assegura ao titular o direito de solicitar a revisão de decisões tomadas exclusivamente com base em tratamento automatizado, ao contexto específico da incorporação de inteligência artificial generativa no judiciário.
Para o advogado contemporâneo, essa transformação impõe novos desafios. Não basta mais dominar apenas o direito material e processual. É necessário compreender o funcionamento das tecnologias empregadas no processo, avaliar criticamente seus resultados e verificar a confiabilidade das informações produzidas por sistemas automatizados. A identificação de eventuais vieses ou inconsistências nas sugestões algorítmicas tornou-se uma competência profissional indispensável. Contudo, essa exigência não pode recair exclusivamente sobre os ombros dos operadores do direito. Os sistemas de IA precisam ser desenvolvidos e implementados de forma que sua operação seja genuinamente inteligível, permitindo que advogados e magistrados exercam a supervisão que a ordem jurídica exige.
Contrapontos: a IA como instrumento de democratização do acesso à justiça
Não se pode ignorar que a incorporação de inteligência artificial no sistema judicial brasileiro também oferece perspectivas positivas significativas. A desigualdade no acesso à justiça é um dos problemas estruturais do país. Tribunais sobrecarregados, processos arrastando-se por décadas, advogados sem recursos para arcar com custos de pesquisa jurisprudencial. Nesses contextos, sistemas de IA podem democratizar o acesso à informação jurídica, permitindo que advogados com menos recursos utilizem ferramentas sofisticadas para pesquisar jurisprudência, analisar processos e preparar peças técnicas. A classificação automatizada de processos e a triagem de recursos podem reduzir gargalos processuais que historicamente favoreceram partes com maior capacidade financeira e técnica.
Além disso, a própria hermenêutica jurídica não é impermeável a críticas internas. A tradição interpretativa ocidental, mesmo em sua versão mais refinada, carrega consigo séculos de exclusões, vieses de gênero e raça, e pressupostos que não correspondem à diversidade da sociedade brasileira. Se os sistemas de IA são treinados em bases que incorporam esses vieses, eles tendem a reproduzi-los. Contudo, se forem cuidadosamente projetados e supervisionados, eles podem representar uma oportunidade de questionar padrões interpretativos que se naturalizaram ao longo de décadas. A IA, nesse sentido, não seria apenas um risco para a hermenêutica jurídica, mas também uma possibilidade de transformação crítica.
Hermenêutica, tecnologia e os limites do conhecimento jurídico
A reflexão filosófica sobre a incorporação de inteligência artificial no direito brasileiro não pode ser reduzida a um debate entre entusiastas e detrators da tecnologia. A questão é mais complexa e mais rica. A hermenêutica jurídica gadameriana nos ensinou que toda compreensão é um encontro entre horizontes, um movimento circular em que o intérprete e o texto se transformam mutuamente. Os sistemas de IA, tal como atualmente implementados, não têm horizonte no sentido gadameriano. Eles não compreender o direito como projeto, não se perguntam pelo sentido da lei para uma comunidade histórica concreta, não carregam a responsabilidade que o exercício da jurisdição impõe. Eles são ferramentas poderosas de organização e análise, mas não podem substituir o juízo hermenêutico que constitui o núcleo da atividade judicial.
A teoria da argumentação de Alexy nos lembra que a fundamentação das decisões jurídicas é um exercício de racionalidade prática que exige justificativas publicamente defensáveis. Os sistemas de IA, ao operar por padrões estatísticos não transparentes, não oferecem esse tipo de fundamentação. A decisão algorítmica pode ser eficiente, mas não é, em sentido estrito, uma decisão juridicamente fundamentada. A resolução 615/2025 do CNJ acertou ao reafirmar a supervisão humana como princípio. Mas a efetividade desse princípio depende de uma compreensão coletivo de que a hermenêutica jurídica não é uma operação de processamento de dados, mas um exercício de sabedoria prática que exige a participação de sujeitos capaz de responder por suas escolhas diante da comunidade jurídica e da sociedade.
O futuro da incorporação de IA no direito brasileiro não está predeterminado. Ele dependerá das escolhas que juristas, legislators, reguladores e operadores do direito fizerem nos próximos anos. A filosofia do direito, como disciplina que reflete sobre os fundamentos e os limites do ordenamento jurídico, tem um papel central nesse debate. Ela pode oferecer as ferramentas conceituais necessárias para distinguir entre usos da IA que preservam e fortalecem as garantias do Estado Democrático de Direito e usos que, mesmo aparentemente eficientes, representam riscos à integridade e à legitimidade das decisões judiciais. Essa reflexão não é um luxo acadêmico. É uma necessidade prática para um sistema judicial que busca, legitimamente, beneficiar-se das possibilidades tecnológicas sem comprometer os fundamentos filosóficos que lhe dão sentido.
Este artigo foi elaborado com apoio de inteligência artificial generativa como ferramenta de assistência à redação. O conteúdo foi revisado e validado antes da publicação. As análises e opiniões expressas são de responsabilidade do autor e não constituem aconselhamento jurídico.
whats_your_reaction
like
0
dislike
0
love
0
funny
0
wow
0
sad
0
angry
0
Comentários (0)