Welcome!

Unlock your personalized experience.
Sign Up

O STJ e a inteligência artificial como prova: a decisão que limita pelo primeira vez o uso de IA generativa no processo penal brasileiro

Pela primeira vez, o Superior Tribunal de Justiça rejeitou um relatório produzido por inteligência artificial generativa como prova em ação penal. O caso, que envolve acusação de injúria racial, estabelece precedente sobre confiabilidade epistêmica e separa a questão da ilicitude da prova da questão da sua validade.

May 06, 2026 - 16:33
0 1
O STJ e a inteligência artificial como prova: a decisão que limita pelo primeira vez o uso de IA generativa no processo penal brasileiro

O caso que levou o STJ a se posicionar sobre IA como prova

Em abril de 2026, a Quinta Turma do Superior Tribunal de Justiça tomou uma decisão que, por sua natureza, não tinha precedente na jurisprudência brasileira: rejeitou um relatório produzido por inteligência artificial generativa como prova em uma ação penal. O caso envolvia uma acusação de injúria racial contra um vice-prefeito de São José do Rio Preto, no interior de São Paulo, cujo episódio teria ocorrido em fevereiro de 2025 durante um jogo de futebol entre Mirassol e Palmeiras. A acusação tinha como base um relatório policial elaborado com auxílio de ferramentas de IA generativa — especificamente os sistemas Gemini e Perplexity — que analisaram imagens do episódio e concluíram pela presença da ofensa no áudio.

A questão central não era a legalidade da obtenção do relatório, nem suposta violação à cadeia de custódia da prova. O problema, segundo o relator, ministro Reynaldo Soares da Fonseca, era epistemológico: o material produzido pela inteligência artificial generativa não possuía a confiabilidade mínima necessária para sustentar uma acusação penal. A decisão foi unânime e abriu precedente para casos futuros que envolvam uso de sistemas de IA na produção de provas criminais.

Na prática, a Quinta Turma determinou a exclusão do relatório dos autos e estabeleceu que o magistrado competente deveria proferir nova decisão sobre a admissibilidade da acusação sem considerar o documento produzido por IA. O processo não foi arquivado — a acusação pode prosseguir com base em outras provas —, mas o relatório de IA ficou de fora.

Como o relatório foi produzido e por que ele foi questionado

O relatório questionado teve origem em uma iniciativa da autoridade policial que, insatisfeita com laudos do Instituto de Criminalística que não confirmaram a presença da palavra ofensiva no áudio, decidiu submeter o mesmo material a sistemas de inteligência artificial generativa. Os prompts utilizados foram reveladores do método adotado: pediu-se ao sistema que transcrevesse o áudio do vídeo integralmente, que gerasse imagens que ilustrassem o contexto e que explicasse como a imagem gerada se relacionava com os fatos. O output desses sistemas — apresentado como Relatório Técnico — concluía que a expressão ofensiva havia sido pronunciada.

Esse relatório foi utilizado pelo Ministério Público de São Paulo para oferecer a denúncia, que foi recebida pelo juízo de primeira instância. A defesa recorreu ao Tribunal de Justiça de São Paulo, que confirmou a validade do material. Em seguida, a defesa impetrou habeas corpus no STJ, que inicialmente não conheceu do writ, mas reconsiderou a decisão em agravo regimental, deferindo medida liminar suspendendo o andamento do processo penal na origem.

O problema fundamental, identificado pelo ministro Fonseca em sua decisão, é que a inteligência artificial generativa não processa dados preexistentes da mesma forma que um sistema de transcrição convencional. Ela cria conteúdo sintético, computacionalmente gerado, sem correspondência necessária com a realidade dos fatos. No caso em análise, o sistema produziu a transcrição e, em seguida, interpretou o conteúdo que ele próprio havia produzido — uma circularidade epistêmica que compromete a confiabilidade do resultado.

O conceito de alucinação da IA e sua relevância jurídica

O argumento central da decisão do STJ envolve o fenômeno conhecido na literatura de inteligência artificial como alucinação: a tendência de sistemas de IA generativa de apresentar informações imprecisas, irreais ou fabricadas, porém com aparência de fidedignidade. Esse comportamento não é um defeito pontual que pode ser corrigido com melhor engenharia de prompt; é uma característica estrutural dos sistemas baseados em modelos de linguagem grandes, que operam com probabilidades estatísticas e não com verificação factual.

A relevância jurídica desse fenômeno é direta. Em um processo penal, toda prova precisa ser dotada de confiabilidade epistêmica mínima — isto é, precisa ter capacidade real de corresponder ao fato que pretende demonstrar. Um laudo pericial tradicional, elaborado por um perito humano com formação técnica e submetido a métodos científicos reconhecidos, tem mecanismos internos de verificação que permitem ao Judiciário avaliar sua confiabilidade. Um output de IA generativa, por outro lado, não tem método de produção verificável, não pode ser interrogado sobre suas premissas e não oferece substrato para que o magistrado avalie se o processo que levou ao resultado foi epistemologicamente sólido.

O professor Aury Lopes Jr., em sua construção sobre o princípio da especialidade probatória, argumenta que cada meio de prova deve ser utilizado para a finalidade que lhe é própria, vedado o seu emprego para fins distintos. Aplicado ao caso, o raciocínio indica que sistemas de IA generativa não foram desenvolvidos para produzir provas periciais; foram desenvolvidos para gerar textos probabilísticos com aparência de coerência. Usar a aparência de coerência como substituto para a verificação técnica é um mau uso da ferramenta que não se pode admitir no contexto de uma acusação penal, onde o ônus da prova recai sobre o Estado e onde a liberdade do réu está em jogo.

A distinção entre prova ilícita e prova não confiável

Uma das contribuições mais relevantes da decisão do STJ é a separação clara entre duas categorias que frequentemente são confundidas na discussão sobre provas digitais: prova ilícita e prova não confiável. A ilicitude de uma prova decorre do modo irregular de sua obtenção, que viola direitos ou garantias fundamentais do réu. A não confiabilidade decorre da ausência de atributos epistêmicos que a tornem apta a demonstrar o fato que alega.

No caso analisado, o relatório de IA não foi obtido mediante violação a direitos fundamentais. A polícia utilizou ferramentas disponíveis publicamente para analisar um vídeo de acesso legítimo. O problema não foi de legalidade, mas de qualidade epistemológica: o material não tinha credenciais para ser tratado como prova. Essa distinção tem implicações práticas relevantes porque os fundamentos para exclusão são diferentes — a prova não confiável não é excluída porque foi obtida irregularmente, mas porque não serve ao seu propósito.

A analogia usada por juristas que comentaram o caso é a consulta a um cartomante ou a leitura de cartas psicografadas para avaliar a culpabilidade de um acusado. O resultado pode, por coincidência, coincidir com a verdade dos fatos, mas isso não o torna prova admissível. O Direito não pode se contentar com resultados que podem ser verdadeiros mas não são justificáveis pelo método empregado. A decisão do STJ vai nessa direção: o problema não é apenas que a IA pode errar, mas que não há como verificar se ela acertou ou errou, o que a torna imprestável como instrumento de comprovação penal.

Implicações para investigações e processos penais que usam IA

A decisão do STJ não proíbe o uso de inteligência artificial no processo penal. Investigações que utilizam IA para triagem de dados, identificação de padrões ou análise preliminar de grandes volumes de informação não são atingidas pela decisão, porque não produzem diretamente provas destinadas a sustentar acusações. O que fica vedado é o uso de outputs de IA generativa como elemento probatório central ou complementar em ações penais, especialmente quando esses outputs pretendem substituir ou se contrapor a laudos periciais oficiais.

Na prática, isso significa que investigadores e membros do Ministério Público que pretenderem usar ferramentas de IA em suas diligências precisam entender os limites dessas tecnologias. Um sistema de reconhecimento facial que identifica um suspeito em uma imagem pode, em princípio, ser utilizado como indicativo que gera investigação, mas não como prova que sustenta condenação. Da mesma forma, análises de áudio feitas por IA podem indicar pontos que merecem aprofundamento pericial, mas não substituem o laudo de um perito acústico.

Também é relevante observar que a decisão não resolve todas as questões jurídicas relacionadas ao uso de IA no processo penal. Questões como a validade de vídeos editados com recursos de IA, a admissibilidade de transcrições automaticamente geradas a partir de gravações, e o peso probatório de imagens geradas por IA em contextos de deepfake ainda carecem de definição jurisprudencial específica. O caso analisado estabelece um marco inicial, não um marco final.

O risco do precedente e a reação do setor de segurança pública

A decisão não foi recebida sem críticas pelo setor de segurança pública e investigação. Autoridades policiais argumentam que, em muitos casos, os recursos periciais oficiais são insuficientes para suprir a demanda, especialmente em comarcas do interior onde não há instituto de criminalística próximo ou onde o volume de casos sobrecarrega os peritos disponíveis. Nesses contextos, ferramentas de IA poderiam, em tese, ampliar a capacidade investigativa sem custo elevado.

Esse argumento tem mérito em sua premissa menor — a insuficiência de recursos periciais é um problema real do sistema de justiça criminal brasileiro —, mas erra ao concluir que a escassez de alternativas justifica o uso de ferramentas não confiáveis. Se os peritos oficiais são insuficientes, a solução estrutural é ampliar a capacidade pericial, não substituir técnicos por sistemas que não podem ser interrogados nem auditados. A decisão do STJ, nesse sentido, funciona como incentivo para que o poder público invista em infraestrutura pericial real, em vez de aceitar atalhos tecnológicos.

Contrapontos e limites da decisão

A decisão do STJ não é imune a críticas legítimas. A principal delas diz respeito à ausência de protocolo institucional para avaliação de sistemas de IA em contextos forenses. Enquanto não houver regulamentação ou diretrizes técnicas sobre quais ferramentas de IA podem ser utilizadas em contexto de investigação criminal, e sob quais condições, decisões como essa vão depender do julgamento individual de cada magistrate com potencial de divergência entre tribunais. Um réu em São Paulo pode ter o relatório de IA excluído; outro réu no Rio Grande do Sul, com circunstâncias idênticas, pode ter resultado diferente. Essa insegurança jurídica não é desejável.

Outra ressalva pertinente é que a decisão não enfrentou diretamente a questão da cadeia de custódia, que foi levantada pela defesa mas não resolvida no mérito. Para alguns especialistas, o uso de IA generativa para produzir provas em investigação criminal configura por si só violação à cadeia de custódia, porque não há como rastrear o processo algorítmico que levou ao output. Essa questão pode voltar ao STJ em casos futuros e receber tratamento diferente do que recebeu no caso ora analisado.

Também é importante notar que a decisão foi tomada em sede de habeas corpus, com efeitos limitados ao caso concreto. Precedentes jurisprudenciais no Brasil não têm caráter vinculante para todos os tribunais, e a posição da Quinta Turma do STJ pode ser reconsiderada ou nuançada em decisões futuras. Enquanto não houver legislação que discipline explicitamente o uso de IA como meio de prova, ou enquanto outros tribunais não seguirem o precedente, a questão permanecerá em aberto.

Cenários e a necessidade de marco normativo

O caso analisado evidencia uma lacuna normativa que não pode ser preenchida apenas por jurisprudência. À medida que o uso de inteligência artificial se torna mais acessível e barato, mais investigações tentarão utilizar outputs de IA como elemento probatório, e a ausência de regras claras gerará insegurança jurídica para acusação, defesa e Judiciário. Especialistas que acompanharam o caso apontam para a necessidade urgente de que o legislador avance na construção de um marco normativo para o uso de IA no processo penal.

Esse marco precisaria enfrentar pelo menos três questões fundamentais. A primeira é a definição de quais sistemas de IA podem ser utilizados em contexto investigativo e sob quais condições técnicas. A segunda é a distinção clara entre usos admitidos e usos vedados de outputs de IA como prova penal. A terceira é a criação de mecanismos de transparência e auditabilidade que permitam ao Judiciário verificar como um determinado output foi produzido.

Enquanto o legislativo não avançar, o STJ terá que continuar decidindo caso a caso, com o risco de decisões divergentes entre suas próprias turmas e entre tribunais estaduais. A decisão tomada em abril de 2026 é um marco relevante, mas não é uma resolução definitiva para um problema que vai se repetir com frequência crescente nos próximos anos.


Este artigo foi elaborado com apoio de inteligência artificial generativa como ferramenta de assistência à redação. O conteúdo foi revisado e validado antes da publicação. As análises e opiniões expressas são de responsabilidade do autor e não constituem aconselhamento jurídico.

whats_your_reaction

like like 0
dislike dislike 0
love love 0
funny funny 0
wow wow 0
sad sad 0
angry angry 0

Comentários (0)

User