Welcome!

Unlock your personalized experience.
Sign Up

STJ define limites para uso de inteligência artificial como prova penal: o que a decisão diz e o que deixa em aberto

Pela primeira vez, o STJ decidiu que relatório policial gerado por IA generativa não pode ser usado como prova em ação penal. A decisão estabelece parâmetros, mas deixa perguntas importantes sem resposta.

May 11, 2026 - 07:32
0 0
STJ define limites para uso de inteligência artificial como prova penal: o que a decisão diz e o que deixa em aberto
Unsplash
Dirhoje
Dirhoje

A decisão e seu contexto

Em abril de 2026, a Quinta Turma do Superior Tribunal de Justiça decidiu, por unanimidade, que um relatório produzido por inteligência artificial generativa não pode ser utilizado como prova em ação penal. O caso envolvia uma acusação de racismo na qual a polícia utilizou um software de IA para analisar supostas ofensas. O relator, ministro Reynaldo Soares da Fonseca, escreveu que o documento algorítmico não possui confiabilidade epistemológica mínima para servir como elemento de prova no processo penal. Essa é a primeira decisão vinculante da corte sobre o tema e estabelece um precedente que deve orientar tribunais inferiores em casos semelhantes.

Direito e Tecnologia
Direito e Tecnologia
Prática Jurídica Moderna
Prática Jurídica Moderna

A decisão do STJ não proíbe o uso de inteligência artificial no sistema de justiça — proíbe especificamente que output de sistemas generativos seja tratado como prova pericial ou técnica. A distinção importa porque abre espaço para uso de IA em funções de apoio, triagem e análise, desde que não substitua atos probatórios formais. Também importa porque sinaliza que o tribunal está disposto a enfrentar a questão de forma substantiva, e não apenas adiando o debate para depois.

Por que a prova penal exige mais do que plausibilidade

O argumento central do STJ gira em torno de um conceito que a doutrina chama de confiabilidade cognitiva da prova. No processo penal, não basta que um elemento seja admissível do ponto de vista formal — é necessário que ele seja capaz de produzir conhecimento válido sobre os fatos. Isso significa que a prova deve ser verificável, controlável pelas partes e submetida ao contraditório. Sem esses requisitos, o elemento não é prova — é apenas narrativa com aparência de fato.

O problema com relatórios gerados por IA generativa é que eles operam com base em padrões estatísticos e probabilidades, não com reconstrução de eventos específicos. Um sistema de IA não observa o que aconteceu — ele infere o que provavelmente estaria nos dados que recebeu. Quando o input é uma conversa digital, o sistema não confirma que as palavras foram ditas no contexto alegado; ele calcula a probabilidade de que as palavras sigam padrões linguísticos compatíveis com o input fornecido. Essa é uma diferença estrutural entre inferência probabilística e verificação factual.

A metáfora do perito e do oráculo

A prova técnica tradicional — como a análise grafotécnica ou a perícia de documentos — funciona com base em método científico, reprodutibilidade e auditabilidade. O perito descreve seu método, os dados que analisou, os instrumentos que utilizou e as conclusões que tirou. Qualquer outro perito, com os mesmos dados e método, deveria chegar ao mesmo resultado. Há controle intersubjetivo.

Sistemas de IA generativa não oferecem isso. A complexidade técnica dos modelos de linguagem grande torna impossível rastrear como uma conclusão específica foi construída — quais dados pesaram mais, quais correlações foram acionadas, quais vieses do treinamento influenciaram o resultado. Esse fenômeno, descrito na literatura como opacidade algorítmica, é o que o STJ identificou como incompatível com as garantias do processo penal.

O risco das alucinações no contexto probatório

Inteligências artificiais generativas podem produzir conteúdo com aparência de coerência e precisão que não corresponde a dados verificáveis. Esse fenômeno, conhecido como alucinação, é bem documentado em modelos de linguagem. Um sistema pode apresentar uma conclusão com estrutura lógica impecável que, no entanto, não tem lastro em informação verificável. Em contextos de uso geral, alucinações são um problema a ser gerenciado. Em contexto probatório penal, onde o erro pode significar condenação de uma pessoa, alucinações são inaceitáveis.

O STJ observou que a insistência na utilização de relatórios de IA, mesmo após perícia oficial negativa, pode revelar um vício de confirmação — o viés probabilístico da máquina é indevidamente priorizado em detrimento da ciência forense tradicional. Isso não significa que sistemas de IA sejam menos precisos que peritos humanos em todos os contextos. Significa que, sem transparência sobre como o sistema chegou a uma conclusão, não há como avaliar sua confiabilidade específica no caso concreto.

Resolução 615/2025 do CNJ: o marco normativo ainda em construção

O próprio Conselho Nacional de Justiça reconhece que o tema está em evolução. A Resolução 615/2025 do CNJ, editada em março de 2025, estabeleceu diretrizes para o desenvolvimento e uso de inteligência artificial no Poder Judiciário. A resolução exige governança, transparência, auditabilidade e supervisão humana em sistemas algorítmicos utilizados pelo judiciário. Também cria o Comitê Nacional de Inteligência Artificial e impõe classificação de riscos para sistemas desenvolvidos ou adquiridos pelos tribunais.

Porém, a dinâmica de substituição da antiga Resolução 332/2020 pela nova 615/2025 evidencia que o tema ainda não encontrou seu ponto de estabilidade. A edição de duas resoluções em cinco anos sobre o mesmo tema indica que o cenário tecnológico evolui mais rápido do que a capacidade normativa de acompanhar. A própria resolução de 2025, embora avance em relação à anterior, ainda não aborda de forma específica a questão da prova penal gerada por IA — tema que ficou para o STJ resolver.

O que a resolução não resolve

A Resolução 615/2025 não define se um relatório gerado por IA pode ou não servir como elemento de prova em processos judiciais. Ela estabelece parâmetros de governança e transparência para sistemas utilizados pelo próprio Poder Judiciário. Mas não resolve a questão de relatórios produzidos por órgãos externos ao judiciário — como delegacias de polícia — que são apresentados como evidência em processos penais. Essa lacuna é exatamente o que a decisão do STJ tenta preencher, ainda que de forma parcial e sem força de resolução normativa geral.

Implicações para investigações e polícia

A decisão do STJ afeta diretamente a prática policial em casos que envolvam uso de sistemas de IA para análise de conversas, identificação de padrões ou produção de relatórios técnicos. Delegacias que utilizam ferramentas de IA generativa para analisar diálogos em aplicativos de mensagem, por exemplo, não podem apresentar o output do sistema como se fosse laudo pericial. O sistema pode ser usado como ferramenta de investigação — para orientar diligências, identificar linhas de investigação, filtrar volume de dados — mas não como substituto da prova técnica formal.

Essa distinção tem implicações práticas significativas. No curto prazo, investigações que dependam fortemente de relatórios de IA podem precisar ser complementadas com perícias tradicionais ou outras formas de comprovação. No médio prazo, polícias civis e federais podem precisar reavaliar suas ferramentas e protocolos para alinhar-se ao precedente. Há também um efeito de sinalização: se a polícia sabe que relatórios algorítmicos não serão aceitos como prova, pode reduzir o investimento em soluções de IA para funções probatórias diretas.

Perspectiva internacional: outros tribunais enfrentam a mesma questão

O debate sobre inteligência artificial e prova penal não é exclusivo do Brasil. Tribunais da União Europeia, Estados Unidos e Reino Unido também enfrentam questões similares sobre o peso probatório de elementos gerados por sistemas algorítmicos. Na Europa, o AI Act impõe obrigações de transparência para sistemas de alto risco, mas ainda não resolve especificamente a questão da prova penal. Nos Estados Unidos, casos sobre uso de algoritmos de reconhecimento facial em acusações criminais já chegaram a tribunais estaduais, com resultados mistos.

A perspectiva comparada indica que o Brasil está entre os primeiros países a estabelecer um precedente claro de rejeição de relatórios de IA generativa como prova penal — mesmo que a fundamentação específica do julgado ainda precise ser consolidada em texto normativo de aplicação geral. Esse posicionamento coloca o STJ na vanguarda de um debate que deve se intensificar nos próximos anos conforme a tecnologia avançar e seu uso em investigações se torne mais frequente.

Contrapontos e limites da decisão

Há quem sustente que a decisão do STJ representa um obstáculo à eficiência do sistema de justiça e que o poder de processamento de sistemas de IA modernos supera em muito a capacidade humana de análise de grandes volumes de dados, especialmente em casos que envolvem comunicações eletrônicas em massa. Nessa visão, proibir o uso de IA como ferramenta probatória seria jogar fora uma capacidade analítica relevante em nome de garantias processuais formuladas em outra era tecnológica. O argumento tem peso: se um sistema de IA consegue analisar milhões de mensagens em horas enquanto um perito levaria meses, a eficiência do processo pode ser significativamente afetada.

Também há quem argumente que a decisão não foi suficientemente além. O STJ decidiu sobre um relatório específico, mas não definiu critérios gerais para distinguir entre uso admissível e inadmissible de IA em diferentes contextos probatórios. Também não enfrentou a questão de sistemas de IA que não são generativos, como algoritmos de reconhecimento facial ou sistemas de análise de padrões financeiros, que operam com lógica diferente e podem apresentar questões de admissibilidade distintas. A ausência de parâmetros gerais significa que tribunais inferiores continuam sem orientação clara para casos futuros.

Também falta à decisão uma posição sobre o ônus da prova quando há indicação de uso de IA. Se uma das partes apresenta um relatório de IA como prova e a outra contesta, quem precisa demonstrar a confiabilidade do sistema? O atual padrão coloca o ônus sobre quem apresenta a prova, mas não especifica como demonstrar que um sistema algorítmico é confiável para o fim específico pretendido. Essa é uma lacuna que provavelmente precisará ser abordada em casos futuros.

O que a decisão deixa em aberto e o que vem a seguir

A decisão do STJ resolve um caso específico, mas seus efeitos são mais amplos. Estabelece que relatório de IA generativa não serve como prova penal quando não há verificabilidade, controle e transparência sobre seu processo de geração. Não resolve, porém, a questão de sistemas de IA não generativos, nem define critérios operacionais para que tribunais inferiores avaliem outros tipos de uso de IA em contextos probatórios.

No médio prazo, a tendência é que defensores e investigadores apresentem recursos pedindo que a corte refine os critérios. Também é provável que casos envolvendo ferramentas diferentes — reconhecimento facial, análise preditiva de comportamento, triagem de evidências — cheguem à corte com frequência crescente. A decisão de abril de 2026 é um marco, não um ponto final. O debate sobre inteligência artificial e prova penal está apenas começando.

STJ define limites para uso de inteligência artificial como prova penal: o que a decisão diz e o que deixa em aberto
Unsplash

Este artigo foi elaborado com apoio de inteligência artificial generativa como ferramenta de assistência à redação. O conteúdo foi revisado e validado antes da publicação. As análises e opiniões expressas são de responsabilidade do autor e não constituem aconselhamento jurídico.

whats_your_reaction

like like 0
dislike dislike 0
love love 0
funny funny 0
wow wow 0
sad sad 0
angry angry 0
Prática Jurídica Moderna
Prática Jurídica Moderna

Comentários (0)

User
Dirhoje
Dirhoje
Dirhoje
Dirhoje