Welcome!

Unlock your personalized experience.
Sign Up

STJ rejeita uso de inteligência artificial como prova em ação penal e fixa marco regulatório histórico

Decisão da Quinta Turma do STJ em abril de 2026 reconheceu que relatórios gerados por IA generativa não possuem confiabilidade epistemológica mínima para sustentar acusação criminal, estabelecendo precedente que separa prova ilícita de prova epistemicamente não confiável.

May 11, 2026 - 08:35
0 0
STJ rejeita uso de inteligência artificial como prova em ação penal e fixa marco regulatório histórico
MiniMax AI
Dirhoje
Dirhoje

O caso que levou o STJ a decidir sobre IA como prova

Em fevereiro de 2025, durante partida de futebol entre Mirassol e Palmeiras no Estádio Municipal José Maria de Campos Maia, em Mirassol, no interior de São Paulo, um segurança do clube paulistano registrou ocorrência contra o vice-prefeito de São José do Rio Preto, Fábio Marcondes, alleging que o político teria proferido insultos de cunho racial durante o evento. O Ministério Público de São Paulo ofereceu denúncia com base em relatório produzido por ferramentas de inteligência artificial generativa — os sistemas Gemini e Perplexity — que, ao analisar o vídeo do incidente, concluíram que a expressão ofensiva teria sido pronunciada.

Direito e Tecnologia
Direito e Tecnologia
Prática Jurídica Moderna
Prática Jurídica Moderna

O problema é que a perícia oficial do Instituto de Criminalística, baseada em análise técnica de fonética e acústica, não identificou traços articulatórios compatíveis com o termo imputation ao acusado. Diante do impasse entre o laudo pericial oficial e o relatório algorítmico, a autoridade policial recorreu à IA generativa buscando resultado convergent com a tese acusatória. A denúncia foi oferecida em agosto de 2025, e o caso chegou ao Tribunal de Justiça de São Paulo, que indeferiu habeas corpus impetrado pela defesa. O recurso subiu ao Superior Tribunal de Justiça.

A Quinta Turma do STJ, por unanimidade, decided em abril de 2026 no HC 1.059.475/SP, relatado pelo ministro Reynaldo Soares da Fonseca, que o relatório produzido por IA generativa não possui confiabilidade epistemológica mínima para servir como prova no processo penal. O tribunal determinou a exclusão do documento dos autos e devolveu o feito à origem para reapreciação da admissibilidade da denúncia, sem considerar o elemento algorítmico.

A distinção dogmática entre prova ilícita e prova não confiável

O voto do ministro Reynaldo Soares da Fonseca operou deslocamento conceitual significativo. Em vez de se posicionar no território habitual da licitude da prova e da integridade da cadeia de custódia — temas tratados nos artigos 157 e 158-A a 158-F do Código de Processo Penal —, o relator situou a controvérsia em plano anterior e mais profundo: o da capacidade racional do elemento informativo para produzir conhecimento sobre os fatos.

O acórdão afastou expressamente a discussão sobre eventual ilegalidade na obtenção do relatório algorítmico. Ainda que se admita, apenas para fins de argumentação, não haver vício formal na produção do documento, permanecia pendente a indagação dogmaticamente relevante: era aquele material, em sua estrutura, capaz de ensejar inferências racionalmente justificáveis sobre o fato investigado? A resposta do STJ foi categórica: relatórios produzidos por ferramentas de IA generativa de uso geral não possuem a confiabilidade epistêmica mínima exigida para sustentar uma acusação criminal.

Essa distinção é estrutural para o direito processual penal brasileiro. A categoria prova ilícita, tratada com base nos artigos 157 e seguintes do Código de Processo Penal, governa a legalidade do ato de produção probatória. Ao lado dessa categoria, com fundamento próprio, posiciona-se agora a prova epistemicamente não confiável — conceito que o STJ inaugurou como critério autônomo de inadmissibilidade. A separação oferece ferramenta analítica útil: tribunais, defesas e acusações passam a operar com dois planos de controle distintos, evitando decisões erráticas que confundem os dois níveis.

Os dois déficits estruturais identificados pelo STJ

O voto identificou, com precisão técnica, dois déficits que comprometem a aptidão probatória de outputs de IA generativa nos termos em que foram produzidos. O primeiro deles é o risco de alucinação — fenômeno pelo qual o modelo apresenta informações imprecisas, irreais ou fabricadas, porém com aparência de fidedignidade. Modelos de linguagem operam por probabilidades e padrões estatísticos extraídos do treinamento; não consultam, em tempo real, repositórios verificáveis. A consequência é intrínseca à arquitetura: respostas plausíveis podem revelar-se tecnicamente infundadas, em formato convincente, mas sem correspondência com a base factual real.

O segundo déficit reside na inadequação técnica. As ferramentas escolhidas pela autoridade policial são modelos de linguagem voltados ao processamento e à geração de texto, e não à análise de ondas sonoras, como demandariam os registros da partida postos à análise. Submetê-las à tarefa de fonética forense é incorrer em descompasso entre função e finalidade. A IA generativa de uso geral não opera, em sentido próprio, análise espectrográfica do áudio; produz narrativa textual sobre o que percebe, segundo as transcrições e descrições que lhe são fornecidas. O STJ captou esse desalinhamento e dele extraiu consequência probatória direta.

Soma-se a isso o que parte da doutrina nomeia como viés de confirmação institucional: após resultado pericial desfavorável à hipótese acusatória, recorreu-se à IA na busca de produto convergente com a tese desejada. A lógica de perícia até que se confirme configura, em si mesma, sinal de alerta quanto ao uso instrumental da tecnologia, e o tribunal não deixou esse ponto passar despercebido.

Diálogo com a Resolução CNJ nº 615/2025 e o marco regulatório

A decisão dialoga com o marco regulatório recente. A Resolução CNJ nº 615, de 11 de março de 2025, em vigor desde 14 de julho daquele ano, revogou a Resolução CNJ nº 332/2020 e fixou, entre os fundamentos da governança da IA no Judiciário, a transparência, a explicabilidade, a contestabilidade, a auditabilidade, a confiabilidade e a supervisão humana efetiva e periódica em todo o ciclo de vida da ferramenta. Embora a norma discipline diretamente o uso da IA pelos órgãos judiciais, e não pela polícia judiciária ou pelo Ministério Público, o vetor principiológico é assimilável: o mesmo arsenal axiológico fundamentou a análise do STJ sobre a admissibilidade do produto algorítmico.

A resolução adota classificação por níveis de risco, exige supervisão humana proporcional ao impacto e veda, em qualquer hipótese, que o sistema substitua a autoridade final do usuário interno. Ao sustentar que a substituição da perícia humana pela IA generativa é incompatível com a admissibilidade probatória, o acórdão ecoa essa diretriz. Não há, contudo, veto à tecnologia. O que se delimita é a porta de entrada: para que o produto algorítmico transponha o limiar do processo penal, exige-se confiabilidade demonstrada, método auditável, base científica verificável, possibilidade de reprodução do resultado, supervisão humana qualificada e aderência funcional entre a ferramenta e a tarefa probatória.

Reafirmação da perícia oficial e impacto nas práticas acusatórias

Outra consequência relevante do julgamento reside no reforço institucional da perícia oficial. Ao prevalecer o laudo do Instituto de Criminalística sobre o relatório algorítmico, o STJ reafirmou que divergências sobre a materialidade dos fatos demandam suporte científico verificável, regido pelas balizas do artigo 159 do Código de Processo Penal. Na hipótese, o relatório de IA não foi tratado, nem poderia sê-lo, como perícia em sentido técnico-jurídico; em paralelo, foi-lhe negada aptidão para superar conclusões oficiais firmadas em método científico consolidado.

O ponto oferece efeito prático imediato. Tornou-se temerário oferecer denúncia lastreada em outputs de modelos generativos quando estes contradizem a perícia oficial sobre o mesmo material. A defesa recebe ferramenta argumentativa de notável força: a demanda por explicitação de método, versão da ferramenta, parâmetros de consulta, datas, prompts utilizados e margem de erro deixa de configurar mero preciosismo retórico para erigir-se em exigência mínima de admissibilidade. Cabe ao Estado-acusação, ônus probatório clássico, demonstrar a aptidão racional do que apresenta como prova; permanecer apenas na opacidade do modelo de linguagem que disse que sim não atende, hodiernamente, a esse encargo.

No plano operacional, o precedente sugere agenda mínima. Antes de levar aos autos qualquer documento auxiliado por IA generativa, deve a parte consignar a ferramenta empregada, a versão consultada, a data e o horário da interação, os prompts exatos, os parâmetros configuráveis e, se possível, o registro íntegro da resposta. Mesmo cumpridos tais cuidados, o juiz deve examinar se o produto algorítmico responde à tarefa para a qual a ferramenta foi tecnicamente concebida.

Contrapontos, críticas e limites da análise

A decisão é ponto de partida, e não de chegada. Restam em aberto questões de elevada complexidade. Quais os requisitos mínimos para que a IA opere como ferramenta auxiliar, e não substitutiva, da perícia oficial? Como compatibilizar o contraditório com a opacidade intrínseca de certos modelos? Que peso probatório deve ostentar um sistema cujo output varia entre consultas idênticas? E, sobretudo, como o ordenamento absorverá ferramentas técnico-científicas especializadas — e não modelos de linguagem de uso geral — eventualmente desenhadas para a fonética forense, a análise de imagem ou outras tarefas periciais?

Outra zona de tensão diz respeito ao avanço, em diversos tribunais, de soluções de IA voltadas a tarefas administrativas e de apoio decisório. O STJ não encerra o debate sobre essas frentes; apenas demarca, com firmeza, que sua extensão à produção probatória em matéria criminal demanda salvaguardas específicas. Embora o acórdão não ostente eficácia vinculante em sentido estrito, sua força persuasiva é considerável: trata-se da primeira manifestação direta de uma turma especializada em matéria criminal sobre o uso de IA generativa como meio de prova, e o desenho dogmático do voto a posiciona como referência analítica para os enfrentamentos vindouros.

Há, ainda, vácuo dogmático que o acórdão começa a preencher. O Código de Processo Penal foi pensado em ambiente probatório anterior à mediação algorítmica generalizada e não trata, de modo expresso, do produto de sistemas computacionais como categoria probatória autônoma. A Lei nº 13.964/2019, o chamado Pacote Anticrime, ao positivar o regime da cadeia de custódia, ofereceu boa parte das respostas para a prova digital coletada — registros, mensagens, metadados —, mas não para a prova gerada por sistemas de IA, em que o vestígio resulta de inferência probabilística, e não de captura concreta.

Cenários e síntese

O HC 1.059.475/SP não inaugura o debate; antes, organiza-o. Ao distinguir, com nitidez dogmática, a prova ilícita da prova epistemicamente não confiável, o STJ entregou ao direito processual penal a chave conceitual que faltava para enfrentar, com método, a entrada das tecnologias generativas na persecução criminal. A inovação, na compreensão consolidada pela Quinta Turma, sob a condução do voto do ministro Reynaldo Soares, não se afigura incompatível com a tradição garantista; pelo contrário, dela depende para legitimar-se.

Tecnologia, sim, mas com método, supervisão humana e fundamentação. No processo penal, em que está em jogo a liberdade, não há espaço para atalhos. A quem queira invocar a IA como instrumento probatório, caberá comprovar, em rigor científico, que o que se invoca é conhecimento, e não mera aparência de conhecimento. O precedente não significa o fim da inteligência artificial na persecução penal, mas estabelece as condições mínimas de admissibilidade: transparência, verificabilidade, controle e adequação técnica entre a ferramenta e a tarefa probatória.

STJ rejeita uso de inteligência artificial como prova em ação penal e fixa marco regulatório histórico
Imagem gerada por inteligência artificial — MiniMax

Este artigo foi elaborado com apoio de inteligência artificial generativa como ferramenta de assistência à redação. O conteúdo foi revisado e validado antes da publicação. As análises e opiniões expressas são de responsabilidade do autor e não constituem aconselhamento jurídico.

whats_your_reaction

like like 0
dislike dislike 0
love love 0
funny funny 0
wow wow 0
sad sad 0
angry angry 0
Prática Jurídica Moderna
Prática Jurídica Moderna

Comentários (0)

User
Dirhoje
Dirhoje
Dirhoje
Dirhoje