Welcome!

Unlock your personalized experience.
Sign Up

STJ decide: relatório gerado por IA não pode ser usado como prova em ação penal

A Quinta Turma do STJ decidiu, pela primeira vez, que relatórios produzidos por inteligência artificial generativa sem validação técnico-científica não possuem confiabilidade epistêmica mínima para servir como prova em processo penal, excluindo documento dos autos em caso de denúncia por injúria racial.

May 11, 2026 - 10:02
0 0
STJ decide: relatório gerado por IA não pode ser usado como prova em ação penal
Unsplash
Dirhoje
Dirhoje

STJ rejeita relatório de IA generativa como prova penal: o que mudou com a decisão

O Superior Tribunal de Justiça tomou, em abril de 2026, uma decisão que devera reverberar por todo o sistema de justica brasileiro. Por unanimidade, a Quinta Turma declarou que um relatório produzido por inteligencia artificial generativa, sem o crivo da racionalidade humana, nao pode ser utilizado como prova em processo penal. O caso envolvera uma denúncia por injúria racial supostamente ocorrida após uma partida de futebol em Mirassol, no interior de São Paulo, e chegou ao STJ por meio de habeas corpus.

Direito e Tecnologia
Direito e Tecnologia
Prática Jurídica Moderna
Prática Jurídica Moderna

Na acusação, o Ministerio Público de São Paulo ofereceu denúncia com base em um relatório de IA que concluía que a expressão ofensiva "macaco" havia sido pronunciada pelo acusado — conclusão oposta à do laudo pericial oficial, que não conseguiu identificar traços articulatórios compatíveis com o termo. A Quinta Turma, liderada pelo relator ministro Reynaldo Soares da Fonseca, determinou a exclusao do documento dos autos e devolveu ao juiz singular a tarefa de reapreciar a admissibilidade da acusação, desta vez sem o relatório algorítmico.

Para advogados criminalistas e especialistas em direito digital, a decisão representa um marco. Pela primeira vez, uma corte superior brasileira enfrentou diretamente a questao da admissibilidade de provas geradas por IA generativa, estabelecendo parametros que deverao ser seguidos por tribunais de todo o país nos próximos anos.

Os fatos do caso: laudo oficial versus relatório de IA

Compreender a fundo o caso exige recapitular os detalhes técnicos do episode. Após uma partida de futebol em Mirassol, um torcedor foi filmado em video supostamente proferindo injúrias raciais contra um jogador adversário. O Instituto de Criminalística, órgão oficial de perícia, recebeu o áudio para análise e produziu laudo técnico baseado em fonética e acústica que concluiu: não foram identificados traços articulatórios compatíveis com a palavra imputada ao acusado. Em termos simples, o perito oficial não conseguiu confirmar que a expressão foi de fato pronunciada.

Diante desse resultado desfavorável à acusação, os investigadores recorreram a ferramentas de inteligencia artificial para uma segunda análise do mesmo material. Os sistemas utilizados processam videos e geram textos descritivos a partir de modelos treinados em grandes volumes de dados. O relatório produzido pela IA concluiu, em sentido contrário ao laudo oficial, que a expressão ofensiva havia sido pronunciada. Esse documento foi incorporado aos autos e serviu de base para o oferecimento da denúncia pelo Ministério Público.

O salto conceitual problematico occurred precisely here: um relatório gerado por sistema de IA, baseado em probabilidades estatísticas e padrões aprendidos em dados de treinamento, foi tratado como evidência técnica equiparável ao laudo pericial oficial, elaborado por profissional humano com formação técnica específica, submetido a protocolos científicos de análise.

Por que o STJ considerou o relatório de IA inapto como prova

Ao analisar o habeas corpus, o ministro Reynaldo Soares da Fonseca enfrentou directamente a questão da admissibilidade. O problema, segundo o relator, não estava na legalidade da obtenção do relatório — não houve violação à cadeia de custódia da prova — mas na capacidade do documento de servir como elemento confiável para sustentar uma acusação penal. A prova em processo penal, reafirmou o ministro, deve permitir a construção de inferências lógicas e racionais sobre os fatos. Não basta ser obtida sem vício: é preciso que seja, por sua natureza, capaz de oferecer lastro racional à decisão.

O voto identificou três camadas de problema com o relatório de IA. Primeiro, os sistemas de IA generativa operam com base em probabilidades e padrões estatísticos, não com certezas técnicas. Podem produzir informações incorretas com aparência de fidedignidade — fenómeno conhecido na literatura como "alucinação" de modelos de linguagem. Segundo, as ferramentas utilizadas processam textos e imagens, não áudios — ou seja, fazem uma transcrição analítica de um conteúdo multimídia, mas não substituem uma análise fonética acústica conduzida por especialista. Terceiro, não havia fundamentação técnico-científica para afastar a conclusão do laudo oficial.

Implicações para o uso de IA em investigações criminais

A decisão do STJ não proíbe o uso de inteligência artificial na investigação criminal. Ferramentas de IA já são utilizadas por forças de em diversas jurisdições para análise de grandes volumes de dados, identificação de padrões em comunicações interceptadas ou triagem de evidências digitais. A corte, porém, deixou claro que a IA pode auxiliar a investigação, mas não substituir os mecanismos de produção de prova chancelados pelo ordenamento jurídico.

Essa distinção é fundamental. Investigação e prova são fases distintas do processo penal. A investigação serve para reunir elementos que permitam ao Ministério Público avaliar se há fundamento para oferecer denúncia. A prova, por sua vez, é o elemento que permite ao juiz formar convicção sobre os fatos. O relatório de IA pode, eventualmente, auxiliar investigadores a identificar linhas de apuração — mas, para chegar a um tribunal como elemento probatório, precisa passar por validación humana e técnica que lhe confera confiabilidade epistêmica mínima.

Especialistas em direito digital e processual penal ouvidos pela Agence Brasil classification a decisão como "acertada e necessária". A professora Cármen Lúcia, relatora de casos anteriores sobre tecnologia no processo penal, sinalizou em sessão que a questão da confiabilidade das provas digitais é uma das grandes desafios do direito probatório contemporâneo, e que o STJ terá de desenvolver jurisprudência progressiva sobre o tema à medida que novos casos chegarem.

O risco do precedente: quando a IA vira atalho para evitar perícia oficial

Uma preocupação articulada por criminalistas é que, na ausência de parametros claros, o relatório de IA possa se tornar um atalho para evitar a realização de perícias oficiais — que tendem a ser mais rigorosas, mas também mais custosas e demoradas. Se investigadores descobrirem que um relatório de IA pode substituir, na prática, um laudo pericial, o incentivo para investir em capacidade técnica oficial diminui.

Esse risco é particularmente relevante em onde o número de peritos oficiais é insuficiente para a demanda. Em vez de aguardar laudos do Instituto de Criminalística, investigadores poderiam encomendar "laudos" de IA que, na prática, não têm o mesmo lastro técnico-científico. A decisão do STJ evita que esse cenário se materialize ao deixar claro que relatório de IA não substitui perícia oficial.

Porém, a questão permanece sobre como essa diretriz será efetivamente fiscalizada. Se investigadores continuarem a produzir relatórios de IA e incorpora-los aos autos, mas em casos onde a defesa não tenha recursos ou conhecimento para impugnar sua admissibilidade, a decisão do STJ pode acabar sendo letra morta para uma parcela significativa dos processos.

Limitações técnicas da IA generativa no contexto probatório

Para compreender plenamente a decisão do STJ, é necessario entender o que a IA generativa efetivamente faz quando analisa um arquivo de áudio. Sistemas como os utilizados no caso de Mirassol são modelos de linguagem treinados para processar e descrever conteúdos multimídia. Eles não ouvem o áudio como um perito humano faria — não realizan análise fonética, não medem frequências, não comparam padrões de pronúncia com banco de dados de vozes conhecidas.

O que esses sistemas fazem é identificar padrões estatísticos nos dados de treinamento e gerar descrições plausíveis com base nesses padrões. Se o modelo foi treinado com milhões de videos que contêm situações de tensão em partidas de futebol, ele pode "interpretar" o contexto e produzir uma descrição que faça sentido narrativa — mas não necessariamente uma que reflita com precisão o conteúdo do áudio específico. Isso é particularmente problemático em contextos legais, onde a precisão é inegociável.

A "alucinação" a que o ministro Reynaldo Soares da Fonseca se referiu no voto é um fenómeno documentado em modelos de linguagem: a tendência de gerar respostas que soam plausíveis mas são factual ou contextualmente incorretas. Em aplicações comuns, como chatbots de atendimento, esse fenomeno é um incómodo gerenciável. Em aplicações probatórias, onde uma decisão judicial pode afectar a liberdade de uma pessoa, o risco de alucinação é inaceitável sem mecanismos de verificação humana.

IA como ferramenta de apoio pericial: onde traçar a linha

Não se pode concluir, contudo, que qualquer uso de IA em contextos forenses seja inadequado. O próprio STJ reconheceu que sistemas de IA podem ser úteis como ferramenta de triagem e identificação de padrões em grandes volumes de dados. O problema central não é o uso da tecnologia, mas a ausência de validação técnica que distinga um relatório de IA de um laudo pericial científico. Se um perito humano utilizar ferramentas de IA como apoio na elaboração do seu laudo, documentando essa e assumindo responsabilidade pelo resultado, a situação é fundamentalmente diferente de um relatório produced diretamente por um sistema algorítmico sem validação humana.

A linha divisória, então, não é entre uso e não uso de IA, mas entre IA como ferramenta de apoio (com responsabilidade humana identificável) e IA como fonte primária de prova (sem crivo humano intermédio). Esta distinção será provavelmente o fio condutor da jurisprudência que o STJ começará a construir a partir deste caso.

Contrapontos: limites da decisão e questões em aberto

A decisão do STJ não resolve todas as questões sobre o uso de IA em processos penais. Uma primeira questão em aberto é a aplicabilidade do precedente a outros contextos probatórios. O caso envolveu um relatório de IA sobre conteúdo de áudio, mas a mesma lógica se aplicaria a outros tipos de análise algorítmica? Se um sistema de IA analisar mensagens de texto para concluir que houve acordo de vontade em contrato, ou se um algoritmo de reconhecimento facial vincular um rosto a imagens de vigilancia, esses casos também deveriam ser tratados com a mesma cautela?

A resposta likely não é simples, porque cada modalidade de análise algorítmica tem suas especificidades técnicas. O STJ terá de desenvolver critérios que possam ser aplicados de forma consistente, sem criar umstandard que impossibilite o uso legítimo de ferramentas tecnológicas na investigação e no processo penal.

Uma segunda questão diz respeito ao ônus da prova. Se um relatório de IA é produzirido pela acusação e a defesa questiona sua admissibilidade, quem tem a incumbência de demonstrar que o sistema é confiável ou não? A decisão do STJ indica que, quando há divergência entre o relatório de IA e o laudo pericial oficial, a preferência deve ser pelo laudo. Mas o que acontece quando não há laudo oficial paralelo, e a única evidência técnica disponível é o relatório de IA?

Terceiro, há uma questão de igualdade de arms. Se investigadores públicos têm acesso a ferramentas de IA que produzem relatórios favorável à acusação, mas a defesa não tem acesso equivalente para produzir avaliações técnicas própria, o principio da paridade de armas pode ser comprometido. Esse desequilíbrio pode gerar defesas técnicas incapazes de efetivamente contestar as conclusões algorítmicas.

A responsabilidade dos advogados na era da prova digital

Uma observação feita por especialistas do Consultor Jurídico merece destaque: a responsabilidade de establecer padrões adequados para admissibilidade de provas de IA não é apenas do Judiciário. Os advogados que atuam em casos envolvendo evidências digitais precisam desenvolver competências técnicas para conseguir impugnar relatórios algorítmicos de forma eficaz. Isso inclui entender como modelos de IA funcionam, quais são seus pontos cegos e como apresentar controvérsias técnicas de maneira que sejam compreensíveis para jueces leigos em tecnologia.

Essa exigência de alfabetização tecnológica dos operadores do direito é uma das consequências mais significativas da decisão do STJ. Não basta mais ao advogado criminalista conhecer apenas o código de processo penal e a Constituição Federal — é preciso entender, ao menos em linhas gerais, como sistemas de IA generativa funcionam para poder questionar sua aplicación em casos concretos.

Cenários futuros: o caminho da jurisprudência brasileira sobre IA e provas

A decisão da Quinta Turma do STJ abre caminho para a construção de uma jurisprudência doméstica sobre admissibilidade de provas geradas por IA. Este primeiro precedente, embora ainda não tenha caráter vinculante para todos os tribunais, sinaliza uma direção clara: relatórios produzidos por sistemas de IA generativa, sem validação técnico-científica e sem responsabilidade humana identificável, não possuem confiabilidade epistêmica mínima para sustentar condenações penais.

Nos próximos anos, é esperado que novos casos cheguem ao STJ e a outros tribunais superiores, refinando os contornos dessa diretriz. Questões como a utilização de IA em análise de mensagens criptografadas, reconhecimento facial em investigações ou triagem de inúmeras evidências digitais deverão forced a establecer novos parâmetros, possivelmente mais permissivos em contextos onde a IA é usada como ferramenta de apoio a peritos humanos do que quando substitui completamente a análise técnica convencional.

O arco temporal dessa jurisprudência coincidirá, inevitavelmente, com a entrada em vigor do PL 2338/2023, que estabelece regras específicas para sistemas de IA de alto risco — categoria que potencialmente inclui ferramentas de análise probatória em processos criminais. A interação entre o marco regulatório da IA e o ordenamento processual penal será um dos campos mais dinâmicos do direito brasileiro nos próximos anos.

Para advogados, investigadores e jueces, a mensagem central da decisão do STJ é clara: a tecnologia não substitui o julgamento humano quando se trata de decisões que afetam a liberdade e direitos fundamentais. A IA pode ser uma ferramenta poderosa de investigação, mas a produção de prova válida para condenação penal exige crivos técnicos e humanos que, pelo menos por enquanto, algoritmos não conseguem fornecer de forma autônoma. Quem tentar contornar essa exigência encontrará, agora com precedente jurisprudencial sólido, uma barreira institucional robusta.

STJ decide: relatório gerado por IA não pode ser usado como prova em ação penal
CATEGORY_ID: 70

Este artigo foi elaborado com apoio de inteligência artificial generativa como ferramenta de assistência à redação. O conteúdo foi revisado e validado antes da publicação. As análises e opiniões expressas são de responsabilidade do autor e não constituem aconselhamento jurídico.

whats_your_reaction

like like 0
dislike dislike 0
love love 0
funny funny 0
wow wow 0
sad sad 0
angry angry 0
Prática Jurídica Moderna
Prática Jurídica Moderna

Comentários (0)

User
Dirhoje
Dirhoje
Dirhoje
Dirhoje