Welcome!

Unlock your personalized experience.
Sign Up

Inteligencia Artificial no Sistema de Justica: O Precedente do STJ e os Limites Juridicos da Prova Gerada por Maquinas

Analise da decisao do STJ que proíbe o uso de relatório produzido por IA generativa como prova em processo penal, e o impacto para o sistema jurídico brasileiro.

May 09, 2026 - 20:04
0 2
Inteligencia Artificial no Sistema de Justica: O Precedente do STJ e os Limites Juridicos da Prova Gerada por Maquinas
MiniMax AI
Dirhoje
Dirhoje

O Caso de Mirassol e a Primeira Barreira do STJ Contra a Prova de IA

Em 8 de abril de 2026, a Quinta Turma do Superior Tribunal de Justiça pronunciou um julgamento que, embora silencioso nos noticiários populares, representa um marco na interseção entre tecnologia e direito penal brasileiro. O caso teve origem em Mirassol, no interior de São Paulo, onde, após uma partida de futebol, um homem registrou ocorrência policial acusando outro indivíduo de ter-lhe dirigido insultos raciais durante a partida. O problema central residia na natureza da prova apresentada: um relatório elaborado por ferramentas de inteligência artificial generativa, sem a devida revisão por inteligência humana.

Direito e Tecnologia
Direito e Tecnologia
Prática Jurídica Moderna
Prática Jurídica Moderna

A investigação policial recorreu a mecanismos de IA que processaram textos e arquivos de áudio relacionados ao incidente. A conclusão alcançada por essas ferramentas indicava que o termo ofensivo de teor racista havia sido pronunciado pelo acusado. Contudo, o Instituto de Criminalística, órgão oficial de perícia, conduziu análise técnica própria e não encontrou vestígios articulatórios do termo ofensivo no áudio disponível. Havia, portanto, um conflito probatório direto entre o laudo oficial e o relatório gerado por inteligência artificial. A máquina concluiu que o insulto racial fora pronunciado; o perito humano não conseguiu confirmar essa mesma ocorrência.

Diante desse impasse, o ministro Reynaldo Soares da Fonseca, relator do processo na Quinta Turma, proferiu decisão que excluiu o relatório de IA do conjunto probatório do caso. O fundamento central do ministro foi a ausência de "confiabilidade epistêmica mínima" no documento produzido pelo sistema generativo. Essa expressão, ainda que não tenha sido cunhada como termo técnico consolidado no ordenamento jurídico brasileiro, traduziu-se em um conceito operativo que demanda transparência sobre o funcionamento interno dos sistemas de IA utilizados em investigações e, sobretudo, a obrigatória intervenção da racionalidade humana antes que qualquer documento gerado por máquina possa ser admitida como prova judicial.

O julgamento estabelece, assim, a primeira barreira processual significativa no judiciário brasileiro contra a admissão irrestrita de provas originárias de sistemas de inteligência artificial generativa. Não se trata de uma proibição total e permanente, mas de uma exigência procedimental que condiciona a utilização dessas ferramentas à supervisão e validação humana. É um precedente que, pela autoridade do STJ, tende a influenciar tribunais estaduais e federais em casos futuros que envolvam evidências digitais processadas por algoritmos de machine learning.

Os Fundamentos Técnicos e Jurídicos da Decisão

Para compreender a profundidade da decisão tomada pelo ministro Reynaldo Soares da Fonseca, é necessário atravessar duas dimensões do problema: a técnica e a jurídica. Na dimensão técnica, o relator chamou atenção para a natureza probabilística dos sistemas de IA generativa, que operam com padrões estatísticos e não com certezas dedutivas. Um modelo de linguagem treinado em grandes volumes de texto não "sabe" o que ocorre em um áudio específico; ele calcula probabilidades sobre qual texto seria mais provável que uma pessoa tivesse pronunciado, com base em padrões acústicos e linguísticos inferidos durante o treinamento.

Esse mecanismo carrega consigo o risco documentado na literatura de inteligência artificial como "alucinação": o fenômeno pelo qual modelos generativos produzem informações que parecem verdadeiras e bem estruturadas, mas que, na realidade, não correspondem a fatos verificáveis ou apresentam detalhes fabricados que não existem nos dados de entrada. O ministro reconheceu explicitamente esse risco ao fundamentar sua decisão, afirmando que sistemas de IA podem gerar informações incorretas que parecem verdadeiras, o que as torna inadequadas, por si sós, para fundamentar condenações penais sem o filtro da inteligência humana.

Na dimensão jurídica, a decisão ancora-se em princípios fundamentais do direito penal e do direito probatório brasileiro. O primeiro deles é o princípio da livre apreciação da prova, que confere ao juiz o poder de valorar as provas segundo seu convencimento motivado, mas exige que essas provas possuam atributos mínimos de confiabilidade e autenticidade. Um relatório produzido por um sistema de IA sem metodologia transparente não pode ser submetido à devida apreciação judicial porque o juiz não consegue auditar a lógica interna do algoritmo que o produziu.

O segundo princípio relevante é o do contraditório e da ampla defesa. Em um processo penal justo, a parte acusada deve ter a oportunidade de confrontar as provas apresentadas contra si. Quando a prova consiste em um relatório de IA cuja metodologia de processamento não é plenamente divugada, a capacidade de contestação efetiva fica comprometida. O advogado de defesa não consegue apontar falhas metodológicas em um sistema cuja arquitetura interna e dados de treinamento permanecem opacos, especialmente quando se trata de ferramentas proprietárias cujo código-fonte e algoritmos não são públicos.

O Conceito de Confiabilidade Epistêmica Mínima

A expressão "confiabilidade epistêmica mínima" cunhada pelo relator não possui precedente direto na jurisprudência brasileira, mas situa-se em uma tradição jurídica que valoriza a idoneidade das fontes de prova. No direito probatório penal, exige-se que a prova seja capaz de demonstrar, com grau razoável de probabilidade, a ocorrência de um fato delituoso. Quando a fonte da prova é um sistema de IA cujas respostas variam conforme o prompt utilizado, cujos dados de treinamento permanecem não auditados e cujas conclusões podem divergir significativamente entre execuções diferentes, a confiabilidade epistêmica fica comprometida de forma incompatível com os padrões de provas penais.

Esse conceito guarda relação funcional com a exigência de "cadeia de custódia" da prova digital, já reconhecida pelo Supremo Tribunal Federal e por tribunais estaduais. Assim como uma prova material deve ser coletada, armazenada e preservada de forma que se possa demonstrar sua integridade, uma prova gerada por IA deveria permitir a verificação de todo o processo que conduziu ao resultado apresentado. Essa transparência é atualmente inviável com a maioria dos sistemas de IA generativa disponíveis no mercado, cujos processos internos permanecem como "caixas pretas".

A decisão do STJ, ao exigir essa confiabilidade mínima, não proíbe o uso de IA nas investigações. Os investigadores podem utilizar essas ferramentas como instrumentos de triagem, levantar hipóteses ou direcionar linhas de investigação. O que a corte vedou foi que o produto final desse processamento algorítmico seja apresentado, por si só, como documento probatório válido sem a devida supervisão e validação humana. É uma fronteira procedimental que preserva o papel do perito humano como filtro obrigatório entre a saída algorítmica e o conteúdo que ingressa no processo penal.

A Distinção Entre Investigação e Instrução Probatória

Um ponto que merece análise cuidadosa é a distinção entre o uso de IA durante a fase investigativa e a admissão de seu produto como prova na instrução processual. A decisão do STJ não veda que investigadores utilizem ferramentas de IA para analisar grandes volumes de dados, identificar padrões ou gerar hipóteses investigativas. Essas ferramentas podem, de fato, aumentar a eficiência da investigação policial ao processar informações que seriam inacessíveis ou demasiado demoradas para análise exclusivamente humana.

Contudo, quando o produto desse processamento cruza o limiar entre ferramenta investigativa e documento probatório, ele deve submeter-se aos requisitos de admissibilidade probatória aplicáveis a qualquer outro documento pericial. Isso significa que um laudo elaborado por um sistema de IA, para ser admitido como prova, precisaria, no mínimo, ser revisado e assinado por um perito humano habilitado, que assumiria a responsabilidade técnica e jurídica pelo conteúdo apresentado. Esse perito deveria ser capaz de explicar a metodologia utilizada, os dados de entrada processados e os critérios que conduziram às conclusões alcançadas.

Essa distinção entre fase investigativa e fase instrutória é fundamental para evitar uma consequência adversa indesejada: a proibição completa do uso de IA nas investigações, que seria prejudicial à eficiência policial e não encontraria suporte na própria decisão do STJ. A corte reconheceu implicitamente a utilidade dessas ferramentas ao não vedá-las integralmente, estabelecendo apenas a exigência de supervisão humana como condionante de sua admissibilidade como prova. É um equilíbrio precário, mas juridicamente defensável, entre inovação tecnológica e garantias processuais.

Perspectivas Comparadas: Argentina e União Europeia

A decisão brasileira não ocorre em um vácuo jurídico internacional. Em jurisdição cercana, a Suprema Corte de Chubut, na Argentina, enfrentou questão relacionada ao uso de IA por magistrados em suas decisões judiciais. O tribunal argentino concluiu que o simples uso de IA por um juiz não invalida automaticamente uma sentença, desde que a decisão final mantenha-se fundamentada em razonamento jurídico humano e não se limite a reproduzir acriticamente as conclusões de sistemas algorítmicos.

A abordagem argentina é significativa porque estabelece um limiar diferente do brasileiro: lá, a preocupação central é com a decisão judicial em si, isto é, se o magistrado efetivamente compreendeu e adotou as razões apresentadas pela IA como suas próprias, ou se apenas as copiou sem filtro crítico. No caso brasileiro, a preocupação é mais ampla, abrangendo também a prova pericial gerada por IA, não apenas a decisão do magistrado. Essa diferença de escopo revela que o ordenamento brasileiro tende a ser mais exigente no controle de provas algorítmicas do que na utilização de IA como ferramenta de apoio à decisão judicial.

Na União Europeia, o AI Act, regulamento que entrou em vigor recentemente, estabelece requisitos específicos para sistemas de IA de alto risco utilizados na administração da justiça. Esses sistemas devem submeter-se a obrigações rigorosas antes de serem colocados no mercado, incluindo avaliação de conformidade, documentação técnica detalhada, sistemas de gestão de risco e monitoramento contínuo. O regulamento europeu não probe o uso de IA na administração da justiça, mas impõe barreiras regulatórias significativas que visam garantir que esses sistemas não produzam resultados discriminatórios, injustos ou não auditáveis.

A comparação internacional revela que o Brasil está se posicionando em uma faixa de regulação similar à europeia no que tange à admissibilidade de provas geradas por IA, porém com mecanismos institucionais menos formalizados. Enquanto a União Europeia possui um regulamento detalhado com obrigações específicas e monitoramento por entidades reguladoras, o Brasil conta com a via jurisprudencial, dependente de casos concretos que cheguem aos tribunais superiores. Essa diferença de mecanismos pode resultar em menor previsibilidade no curto prazo, mas também em maior flexibilidade judicial para adaptar-se à evolução tecnológica.

Os Limites da Analogia com o Contexto Europeo

É importante reconhecer que a transposição direta do modelo europeu para o contexto brasileiro enfrenta obstáculos significativos. A União Europeia possui uma tradição de regulação setorial detalhada, com agências reguladoras especializadas e cultura de conformidade empresarial que facilita a implementação de obrigações técnicas. No Brasil, a regulação de IA ainda está em estágio inicial de desenvolvimento, sem uma legislação abrangente que discipline especificamente o tema.

Além disso, as condições materiais de implementação diferem substancialmente. Peritos judiciais brasileiros frequentemente operam com recursos técnicos limitados, e a própria estrutura do sistema forense nacional enfrenta desafios de modernização. Exigir a mesma sofisticação regulatória europeia sem a correspondente infraestrutura técnica e institucional resultaria em norma desprovida de efetividade prática. O STJ, ao decidir por via jurisprudencial, permitiu-se um grau de flexibilidade que uma lei engessada poderia não oferecer.

Há, ainda, a questão da diversidade de sistemas de IA. O regulamento europeu classifica diferentes tipos de sistemas de IA com obrigações proporcionais aos riscos que apresentam. Nem todo sistema de IA utilizado em contextos jurídicos apresenta o mesmo nível de risco ou complexidade. Um sistema de transcrição de áudio por IA, por exemplo, opera de forma fundamentalmente diferente de um sistema de análise preditiva de comportamento criminal ou de um modelo de geração de texto jurídico. A decisão do STJ, ao mencionar o risco de "alucinação", parece aplicar-se mais diretamente a sistemas generativos de texto, mas sua fundamentação ampla pode acabar alcançando outros tipos de ferramentas de IA utilizadas no sistema de justiça.

Implicações para o Sistema Jurídico Brasileiro

A decisão do STJ reverbera em múltiplas dimensões do sistema jurídico brasileiro. Na esfera penal, estabelece um precedente que afetará casos futuros envolvendo provas digitais processadas por IA, obrigando promotores e advogados de defesa a reconsiderarem como evidências derivadas de sistemas de IA são apresentadas e contestadas em tribunal. Os advogados precisarão desenvolver novas competências na compreensão de como esses sistemas funcionam, quais são suas limitações e como questionar efetivamente provas produzidas por algoritmos.

Para os órgãos de investigação, a decisão impõe a necessidade de estabelecer protocolos claros sobre o uso de ferramentas de IA durante inquéritos policiais. A simples dependência de relatórios gerados por IA sem revisão humana não será mais suficiente para oferecer denúncias ou obter condenações. Delegacias e promotorias precisarão desenvolver competência interno para revisar saídas de IA ou estabelecer parcerias com especialistas técnicos que possam validar esses documentos antes de serem submetidos ao tribunal.

No âmbito das universidades e instituições de formação jurídica, a decisão sinaliza a necessidade de incorporar conteúdos sobre inteligência artificial, ciência de dados e seus limites no currículo das faculdades de direito. Advogados formados exclusivamente em disciplinas jurídicas tradicionais encontrar-se-ão inadequadamente preparados para lidar com casos em que evidências derivadas de IA desempenhem papel central. Uma nova geração de operadores do direito precisará desenvolver fluência tecnológica proporcional à sua fluência jurídica.

A decisão também impacta o debate legislativo em curso sobre regulação de IA no Brasil. Projetos de lei sobre inteligência artificial tramitam no Congresso Nacional há anos sem avanço significativo. Enquanto o Poder Legislativo permanece imóvel, o Poder Judiciário, através de suas cortes superiores, vai estabelecendo precedentes que gradualmente constroem um arcabouço normativo jurisprudencial sobre o tema. Essa dinâmica de inversão de fonte — do legislativo para o judicial — pode gerar insegurança jurídica no médio prazo, mas permite respostas mais ágeis a questões emergentes que uma lei geral, por sua natureza prospectiva, não conseguiria endereçar com a mesma precisão.

Riscos e Incertezas da Nova Fase Probatória

A exigência de supervisão humana sobre provas geradas por IA introduzida pela decisão do STJ não está isenta de críticas e incertezas. A primeira delas concerne à própria definição do que constitui "supervisão humana suficiente". A decisão não especifica qual nível de revisão humana é necessário, nem estabelece critérios objetivos para avaliar se essa supervisão foi adequadamente realizada. Isso abre espaço para interpretações diversas que podem resultar em insegurança jurídica aplicacional.

Uma segunda incerteza significativa refere-se à responsabilidade. Quando um laudo pericial é revisado por um perito humano que subscreve um relatório originalmente gerado por IA, presume-se que esse profissional compreende integralmente o processo metodológico do sistema algorítmico e assume responsabilidade por suas conclusões. Contudo, em muitos casos, a revisão humana de um documento de IA será superficial — uma verificação de consistência formal, sem auditoria substantiva do raciocínio algorítmico subjacente. Nesses casos, a "supervisão humana" pode ser mais nominal do que efetiva.

Uma terceira área de incerteza relaciona-se ao impacto desproporcional sobre réus sem recursos. Advogados com maior competência técnica e financeira conseguirão questionar mais efetivamente a metodologia de sistemas de IA utilizados como prova, enquanto réus dependentes de defensoria pública ou ajuda jurídica gratuita podem enfrentar dificuldades significativas para contestar esses documentos. A decisão do STJ, se não for acompanhada de políticas de acesso à justiça e de formação de defensores públicos, corre o risco de aprofundar as desigualdades já existentes no sistema de justiça criminal.

Conclusão: Um Precedente Inicial, Não Final

A decisão da Quinta Turma do STJ representa um momento significativo na história do direito probatório brasileiro, mas não deve ser interpretada como uma resposta definitiva às complexas questões que a inteligência artificial coloca para o sistema de justiça. É, fundamentalmente, um precedente inaugural — o primeiro passo de um Judiciário que ainda está aprendendo a navegar em uma paisagem tecnológica em rápida transformação.

O que se pode afirmar com razoável grau de certeza é que a tendência é de crescente exigência de accountability sobre os sistemas de IA utilizados em contextos jurídicos. O conceito de "confiabilidade epistêmica mínima" lançado pelo ministro Reynaldo Soares da Fonseca deverá ser refinado por casos futuros, com maior especificação dos requisitos técnicos e metodológicos necessários para que uma prova derivada de IA seja considerada suficientemente confiável. Esse refinamento ocorrerá gradualmente, à medida que novos casos cheguem às cortes superiores e que a prática forense desenvolver padrões de melhores práticas.

Paralelamente, o debate sobre regulação legislativa de IA no Brasil deverá ganhar novo fôlego a partir deste precedente. A jurisprudência cria expectativas e sinaliza direções, mas apenas a lei pode estabelecer obrigações claras, proporcionais e aplicáveis uniformemente em todo o território nacional. Enquanto o legislativo não avançar, os tribunais permanecerão no papel de reguladores de facto, o que pode gerar inconsistências entre diferentes cortes e turmas julgadoras.

O caso de Mirassol, em sua dimensão prática, foi sobre um insulto racial após uma partida de futebol. Em sua dimensão sistêmica, foi sobre se e como máquinas podem produzir verdades para fins judiciais. A resposta do STJ — podem, mas não autonomamente, e nunca sem o filtro da racionalidade humana — estabelece uma diretriz que, se corretamente implementada e progressivamente refinada, pode conciliar demandas legítimas por inovação tecnológica na administração da justiça com as garantias fundamentais de devido processo e julgamento justo que uma sociedade democrática deve a seus cidadãos. Resta saber se o sistema de justiça brasileiro dispunha dos recursos institucionais e técnicos necessários para absorver esse desafio — e se conseguirá desenvolvê-los a tempo.

Inteligencia Artificial no Sistema de Justica: O Precedente do STJ e os Limites Juridicos da Prova Gerada por Maquinas
Imagem gerada por inteligência artificial — MiniMax

Este artigo foi elaborado com apoio de inteligência artificial generativa como ferramenta de assistência à redação. O conteúdo foi revisado e validado antes da publicação. As análises e opiniões expressas são de responsabilidade do autor e não constituem aconselhamento jurídico.

whats_your_reaction

like like 0
dislike dislike 0
love love 0
funny funny 0
wow wow 0
sad sad 0
angry angry 0
Prática Jurídica Moderna
Prática Jurídica Moderna

Comentários (0)

User
Dirhoje
Dirhoje
Dirhoje
Dirhoje