Welcome!

Unlock your personalized experience.
Sign Up

STJ Decide Sobre Uso de IA Generativa como Prova em Processo Penal: O Que a Decisão Estabelece

Primeira decisão do STJ sobre inteligência artificial generativa como prova penal rejeita relatório produzido por IA e estabelece precedentes sobre limites da tecnologia no sistema de justiça brasileiro.

May 11, 2026 - 08:22
0 0
STJ Decide Sobre Uso de IA Generativa como Prova em Processo Penal: O Que a Decisão Estabelece
Unsplash
Dirhoje
Dirhoje

O caso que levou o STJ a se pronunciar sobre provas geradas por IA

A Quinta Turma do Superior Tribunal de Justiça tomou, em abril de 2026, uma decisão que marca o primeiro posicionamento da corte sobre o uso de inteligência artificial generativa como prova em processos penais. Por unanimidade, os ministros entenderam que um relatório produzido por IA não possui confiabilidade epistêmica mínima para fundamentar uma acusação criminal. O caso envolveu uma denúncia por injúria racial supostamente ocorrida após uma partida de futebol no município de Mirassol, no interior de São Paulo. O acusado teria chamado a vítima de uma expressão racista, momento que teria sido captado em vídeo. No entanto, a perícia oficial realizada pelo Instituto de Criminalística não confirmou a presença da palavra no áudio. Diante desse resultado, os investigadores recorreram a ferramentas de inteligência artificial para analisar o conteúdo do vídeo, e o relatório gerado pela IA concluiu, em sentido oposto ao laudo oficial, que a expressão ofensiva havia sido pronunciada. Esse documento acabou servindo de base para o oferecimento da denúncia pelo Ministério Público de São Paulo.

Direito e Tecnologia
Direito e Tecnologia
Prática Jurídica Moderna
Prática Jurídica Moderna

O julgamento do habeas corpus relativo ao caso (HC 1.059.475) estabeleceu um precedente que deve influenciar a forma como investigações criminais lidam com evidências digitais geradas por sistemas de IA generativa. A decisão da turma, relatada pelo ministro Reynaldo Soares da Fonseca, determinou a exclusão do documento dos autos e o trancamento da ação penal por ausência de justa causa. A decisão não impede que uma nova denúncia seja apresentada, desde que apoiada em provas consideradas confiáveis pelos critérios do sistema de justiça.

O que o relatório de IA gerou como problema probatório

O problema central identificado pelo STJ não foi a legalidade da obtenção do relatório produzido por IA, nem uma suposta ofensa à cadeia de custódia da prova. O tribunal focou em um ponto mais fundamental: a capacidade desse tipo de material servir como elemento confiável para sustentar uma acusação penal. O relator observou que os sistemas de IA generativa operam com base em probabilidades e padrões estatísticos, e que podem produzir informações incorretas com aparência de verdade. O ministro Reynaldo Soares da Fonseca utilizou uma expressão que tem sido frequentemente citada desde então: o risco de alucinação desses sistemas, que consiste na apresentação de informações imprecisas, irreais ou fabricadas, porém com aparência de fidedignidade. Essa característica, tolerável em contextos de assistentes virtuais ou ferramentas de redação, torna-se problemática quando o material será usado para restringir a liberdade de uma pessoa.

Além disso, o voto do relator apontou para uma limitação técnica específica no caso analisado: as ferramentas utilizadas processam textos, não sons, o que as torna inadequadas para análise fonética de áudios. A leitura da perícia oficial, segundo o ministro, revela todo o raciocínio inferencial e técnico empregado, em contraste com o relatório produzido pela inteligência artificial. Essa falta de fundamentação técnico-científica para afastar a conclusão da perícia oficial foi decisiva para que o tribunal considerasse o documento produzido por IA inapto para fins probatórios.

A distinção entre licitude e confiabilidade da prova

Um dos aspectos mais relevantes da decisão é a separação clara entre dois requisitos probatórios que frequentemente são confundidos no debate jurídico: a licitude da prova e sua confiabilidade. O ordenamento processual penal brasileiro exige que a prova seja obtida de forma lícita, sem violação de direitos ou garantias fundamentais, mas também exige que a prova possua confiabilidade suficiente para sustentar uma condenação. O relatório produzido por IA foi obtido de forma lícita, sem que houvesse invasão de privacidade ou qualquer outro vício na sua coleta. Ainda assim, foi rejeitado porque não atendia ao requisito de confiabilidade. Essa distinção é fundamental para compreender o alcance da decisão: ela não estabelece que o uso de IA em investigações é ilegal, mas sim que os resultados produzidos por IA generativa, por si sós, não preenchem os requisitos técnicos para figurar como prova penal.

A exigência de confiabilidade epistêmica no processo penal

A decisão do STJ se insere em um debate mais amplo sobre os requisitos da prova penal no ordenamento brasileiro. O ministro Fonseca enfatizou que a prova em processo penal deve permitir a construção de inferências lógicas e racionais sobre os fatos, e que o ordenamento processual penal brasileiro impõe a exigência de que todo elemento probatório permita a construção de inferências racionais sobre os fatos apurados. Um relatório gerado por IA, por mais sofisticado que seja, opera por padrões estatísticos e não oferece a rastreabilidade técnica necessária para que um juiz avalie sua correção em um caso concreto. Essa exigência de rastreabilidade se conecta ao princípio da livre convicção motivada, que vigora no processo penal brasileiro.

O juiz não está vinculado ao laudo pericial, mas qualquer divergência em relação à conclusão técnica oficial precisa ser justificada com base em critérios técnicos idôneos. No caso analisado pelo STJ, essa justificativa técnica não existia: o relatório de IA não oferecia os elementos necessários para que o juiz compreendesse como a conclusão foi alcançada, nem fornecia indicadores de confiabilidade que permitissem contrapor o laudo oficial. Essa opacidade analítica foi decisiva para a rejeição do documento.

Impactos para investigações, perícias e uso de tecnologia na justiça

A decisão do STJ produz efeitos que se projetam para além do caso específico. Para investigações criminais, o precedente estabelece que simplesmente substituir uma perícia oficial por um relatório de IA não é suficiente para gerar justa causa para uma acusação. Se uma investigação quiser usar ferramentas de IA na análise de evidências, precisará combinar esses recursos com laudos técnicos que ofereçam fundamentação adequada. A decisão não proíbe o uso de IA em investigações, mas exige que eventual material produzido por IA seja validado por meios que confiram confiabilidade epistêmica equivalente à exigida pelo sistema de justiça.

Para os laboratórios de informática forense e instituições que realizam perícias oficiais, a decisão representa um selo de validação para o trabalho técnico tradicional. Esses organismos enfrentam crescente pressão de ferramentas automatizadas que prometem resultados mais rápidos e baratos, e a decisão do STJ reafirma que, no contexto penal, o rigor técnico não pode ser substituído por conveniência computacional. Especialistas em direito digital e processo penal ouvidos por veículos como a Agência Brasil e a Carta Capital destacaram que a decisão reconhece implicitamente a importância da supervisão humana em contextos de alta consequência.

Os precedentes internacionais sobre prova e IA

Em outras jurisdições, a questão do uso de IA como prova também está sendo debatida, ainda sem consenso estabelecido. Na União Europeia, o AI Act não aborda especificamente a admissibilidade de provas geradas por IA em processos judiciais, deixando essa questão para as legislações processuais de cada estado-membro. Nos Estados Unidos, cortes federais têm aceitado evidências baseadas em IA em alguns contextos, mas com requisitos variáveis de validação técnica. Essa falta de padronização internacional cria incerteza adicional para investigações que envolvem cooperação jurídica com outros países, um fenômeno cada vez mais comum em crimes digitais transfronteiriços. O precedente do STJ se insere, assim, em um debate global ainda em construção, mas fá-lo com uma posição relativamente clara: no direito brasileiro, a confiabilidade epistêmica não pode ser substituída por conveniência algorítmica.

Contrapontos, limites da análise e perspectivas alternativas

A decisão do STJ, embora markante, não responde a todas as questões que se colocam sobre o uso de IA no sistema de justiça. Não está totalmente definido, por exemplo, se um laudo pericial tradicional que utilize ferramentas de IA em seu processo de elaboração seria válido ou não. A corte não se pronunciou sobre a admissibilidade de provas cuja elaboração tenha utilizado inteligência artificial de forma auxiliar, mas não exclusivamente. Esse cenário intermediário permanece em zona cinzenta e deve gerar novos debates jurídicos nos próximos anos. Além disso, a decisão foi tomada em um caso específico de análise de áudio e pode não ser automaticamente aplicada a outros tipos de evidências digitais geradas por IA, como imagens, vídeos sintéticos ou deepfakes, cada um com suas próprias complexidades técnicas e jurídicas.

Outra perspectiva a considerar é a dos desenvolvedores de tecnologia forense baseada em IA. Muitos argumentam que as ferramentas de IA generativa estão melhorando rapidamente em termos de acurácia e que os obstáculos identificados pelo STJ poderiam ser superados com aprimoramentos técnicos. Defensores dessa visão apontam que proibir ou restringir severamente o uso de IA em contexto forense pode privar o sistema de justiça de ferramentas potencialmente úteis. Em sentido contrário, especialistas em direitos fundamentais destacam que, em matéria penal, o custo de um erro é a restrição de liberdade de uma pessoa, o que justifica um grau de exigência probatória mais elevado do que em outras áreas. Essa tensão entre utilidade tecnológica e garantia de direitos fundamentais é o eixo central do debate que a decisão do STJ coloca, sem necessariamente resolvê-lo.

Síntese e cenários para o futuro próximo

A decisão do STJ no HC 1.059.475 estabelece um marco inicial para o uso de IA generativa como prova em processos penais no Brasil, deixando claro que relatórios produzidos por esses sistemas não atendem, por si só, aos requisitos de confiabilidade exigidos pelo sistema de justiça. O precedente não fecha a porta ao uso de IA em contextos forenses, mas exige que eventual material produzido seja submetido a validação humana com fundamentação técnica adequada. Para o poder legislativo, a decisão sublinha a urgência de marcos regulatórios que abordem de forma mais precisa os requisitos para uso de IA em contextos de alta consequência, incluindo o sistema de justiça.

Para operadores do direito, a lição prática é que, no atual estágio tecnológico, a supervisão humana qualificada segue sendo insubstituível quando se trata de decisões que afetam direitos fundamentais. O cenário mais provável nos próximos anos é de multiplicação de casos envolvendo IA no sistema de justiça, o que deve gerar um corpo jurisprudencial mais denso sobre o tema. Enquanto isso, o desafio regulatório permanece: como estabelecer padrões técnicos para a admissibilidade de evidências baseadas em IA sem sufocar a inovação tecnológica que pode, sim, contribuir para uma justiça mais eficiente e acessível.

STJ Decide Sobre Uso de IA Generativa como Prova em Processo Penal: O Que a Decisão Estabelece
Unsplash

Este artigo foi elaborado com apoio de inteligência artificial generativa como ferramenta de assistência à redação. O conteúdo foi revisado e validado antes da publicação. As análises e opiniões expressas são de responsabilidade do autor e não constituem aconselhamento jurídico.

whats_your_reaction

like like 0
dislike dislike 0
love love 0
funny funny 0
wow wow 0
sad sad 0
angry angry 0
Prática Jurídica Moderna
Prática Jurídica Moderna

Comentários (0)

User
Dirhoje
Dirhoje
Dirhoje
Dirhoje