Quando a inteligência artificial não serve como prova: o precedente do STJ e seus limites
Pela primeira vez, o STJ decidiu que um relatório produzido por IA generativa não pode fundamentar uma acusação penal, estabelecendo critério de confiabilidade epistêmica como requisito autônomo de admissibilidade.
O caso que levou a questão ao STJ
Em fevereiro de 2025, durante uma partida de futebol entre Mirassol e Palmeiras no Estádio Municipal José Maria de Campos Maia, um segurança do clube paulistano teria sido vítima de injúria racial. O áudio do suposto insulto foi submetido ao Instituto de Criminalística, cujo laudo oficial não identificou traços articulatórios compatíveis com o termo imputado ao acusado. Diante desse resultado, a autoridade policial requereu nova análise do mesmo material, recorreu a ferramentas de IA generativa de uso geral — o Gemini, do Google, e o Perplexity — cujos resultados, em sentido contrário ao da perícia oficial, passaram a integrar o conjunto de elementos que sustentariam a denúncia oferecida pelo Ministério Público de São Paulo.
Negada a ordem de habeas corpus pelo Tribunal de Justiça de São Paulo, a defesa recorreu ao Superior Tribunal de Justiça. Em decisão unânime tomada pela Quinta Turma em abril de 2026, o tribunal decidiu que o relatório produzido por IA generativa não pode fundamentar uma acusação penal. O julgamento, relatado pelo ministro Reynaldo Soares da Fonseca, resultou na exclusão do documento dos autos e estabeleceu que o magistrate deve prolatar nova decisão sobre a admissibilidade da acusação sem considerar o relatório algorítmico. O acórdão é considerado o primeiro posicionamento do STJ sobre o uso de IA generativa como meio de prova criminal.
O critério da confiabilidade epistêmica
A contribuição central do julgado reside no deslocamento do eixo argumentativo. O relator afastou expressamente a discussão sobre a licitude da obtenção do material e a eventual violação à cadeia de custódia da prova, temas que dominam grande parte do debate forense contemporâneo sobre provas digitais. Não que tais questões sejam impróprias; o ponto é que, no caso concreto, a controvérsia central era anterior. Mesmo que se admitisse, apenas para argumentar, não haver ilegalidade formal na obtenção do documento, restaria pendente a indagação dogmaticamente mais relevante: era aquele material capaz de ensejar inferências racionalmente justificáveis sobre o fato investigado?
Ao enfrentar essa questão, o tribunal formulou o conceito de confiabilidade epistêmica como critério autônomo de admissibilidade da prova. Segundo o relator, o sistema jurídico exige da prova não apenas legalidade formal, mas igualmente aptidão racional para a construção de conhecimento sobre os fatos. A categoria prova ilícita, argumentou o ministro, não esgota o universo das provas inadmissíveis: ao seu lado, com fundamento próprio, posiciona-se a prova epistemicamente não confiável. A distinção entre o plano da legalidade do ato de produção e o plano da aptidão científica do produto abre via argumentativa que transcende o binômio clássico licitude/ilicitude.
O problema da alucinação e da inadequação instrumental
O voto do relator identificou dois problemas técnicos fundamentais que afetam a utilização de IA generativa como instrumento de análise probatória. O primeiro deles é o fenômeno conhecido como alucinação, pelo qual sistemas de IA generativa apresentam informações imprecisas, irreais ou fabricadas com aparência de fidedignidade. Esse comportamento é uma característica conhecida dos modelos de linguagem, que geram respostas estatisticamente plausíveis, mas não necessariamente verdadeiras, especialmente quando operam em domínios que exigem precisão factual absoluta.
O segundo problema, específico do caso concreto, refere-se à inadequação instrumental das ferramentas utilizadas. As ferramentas de IA aplicadas ao caso processavam textos, e não sons, o que as tornava tecnicamente inapropriadas para análise fonética de áudios. O ministro observou que a leitura da perícia oficial revela todo o raciocínio inferencial e técnico empregado, em oposição ao relatório simplista produzido pela inteligência artificial. Essa ausência de fundamentação técnico-científica para afastar a conclusão da perícia oficial foi um dos elementos decisivos para a exclusão do documento.
Implicações para persecução penal e para o sistema de justiça
O precedente estabelecido pelo STJ tem implicações que ultrapassam o caso específico. Ao exigir que a prova penal possua confiabilidade epistêmica mínima, o tribunal entrega ao direito processual penal uma chave conceitual para enfrentar a entrada das tecnologias de IA na persecução penal. Essa exigência não significa que a IA não possa participar do processo penal; significa que a IA generativa, tal como atualmente disponível, não possui a consistência metodológica necessária para fundamentar condenações ou acusações por si só.
A decisão também reacende o debate sobre os limites da perícia técnica versus análise algorítmica. A perícia oficial, realizada por profissionais especializados com base em metodologia auditável e replicável, possui um grau de accountability que o relatório de IA generativa, gerado por modelos de linguagem sem transparência sobre o processo inferencial, não consegue igualar. Essa assimetria não é um argumento contra a tecnologia em si, mas um alerta para que sua utilização no contexto forense seja precedida de validação técnica rigorosa.
Contrapontos e questões em aberto
A decisão não resolve todas as questões sobre o uso de IA na persecução penal. Uma questão que permanece em aberto é se a mesma lógica se aplicaria a outros tipos de sistemas de IA, como modelos de reconhecimento facial ou análise preditiva de comportamento, que possuem arquitetura técnica diferente da IA generativa e podem apresentar diferentes perfis de confiabilidade. O precedente do STJ envolveu especificamente um relatório produzido por IA generativa processando conteúdo multimídia; a extensão dessa lógica para outros contextos ainda demandará debate.
Também merece atenção a questão da responsabilidade por erros em ferramentas de IA utilizadas pela polícia. Se um laudo pericial convencional apresenta falhas, o perito responde civil e criminalmente por elas. A mesma responsabilização se aplica quando ferramentas de IA geram relatórios incorretos? O ordenamento jurídico brasileiro ainda não ofereceu resposta consolidada para essa questão, e a falta de clareza normativa pode criar zonas cinzentas de responsabilidade no futuro próximo.
Outra limitação importante é que o precedente não enfrentou a questão da legalidade da obtenção do documento, nem a eventual violação à cadeia de custódia. Essas questões permanecem em aberto e podem ser objeto de futuros julgamentos. A separação entre licitude e confiabilidade, embora conceitualmente produtiva, pode gerar situações em que um documento juridicamente lícito mas epistemicamente não confiável seja produzido durante uma investigação, criando problemas práticos para todos os atores do sistema de justiça.
Cenários e consequências possíveis
O julgamento do STJ ocorre em um contexto mais amplo de expansão do uso de IA em todas as etapas da persecução penal, desde a investigação até a sentença. Ferramentas de reconhecimento facial, sistemas de análise preditiva de risco, plataformas de mineração de dados e chatbots jurídicos já fazem parte do cotidiano de delegacias e tribunais. O precedente do STJ impõe um freio importante ao uso irrefletido de IA generativa como fonte probatória, mas não resolve a questão mais geral da adequação de sistemas algorítmicos ao contexto forense.
Nos próximos anos, é provável que tribunais e legisladores sejam pressionados a estabelecer padrões mais claros para o uso de IA na persecução penal. O próprio STJ, em informativos posteriores, poderá ser chamado a reapreciar a matéria e a definir com maior precisão os contornos do critério de confiabilidade epistêmica. Até lá, o precedente estabelecido no HC 1.059.475/SP funcionará como baliza interpretativa, mas não como solução definitiva para um debate que apenas começa.
Este artigo foi elaborado com apoio de inteligência artificial generativa como ferramenta de assistência à redação. O conteúdo foi revisado e validado antes da publicação. As análises e opiniões expressas são de responsabilidade do autor e não constituem aconselhamento jurídico.
whats_your_reaction
like
0
dislike
0
love
0
funny
0
wow
0
sad
0
angry
0
Comentários (0)