STJ rejeita relatorio de inteligencia artificial como prova penal: o que a decisao diz e o que ainda permanece em aberto
Primeira posicao do tribunal superior sobre uso de IA em processos criminais estabelece criterio de confiabilidade epistmica minima e exige supervisao humana, mas deixa questoes praticas sobre pericias tecnologicas abertas.
A decisao isolada que virou precedente
Em abril de 2026, a Quinta Turma do Superior Tribunal de Justica tomou uma decisao que mobilizou profissionais do direito, pesquisadores de tecnologia e o setor de inteligencia artificial no Brasil. Por unanimidade, os ministros rejeitaram um relato produzido por ferramentas de IA generativa como prova em uma acao penal que envolvia acusacao de injuria racial. O caso, iniciado a partir de um incidente em evento esportivo no interior de Sao Paulo, tornou-se o primeiro posicionamento formal do STJ sobre a admissibilidade de material produzido por sistemas de inteligencia artificial no processo penal brasileiro.
O relato em questao foi elaborado pela Policia Civil de Sao Paulo utilizando os sistemas Gemini e Perplexity para analisar um video que supostamente capturava palavras ofensivas pronunciadas por um vice-prefeito municipal contra um seguranca privado. A conclusao algoritmica de que a expressao teria sido de fato pronunciada foi utilizada pelo Ministerio Publico para oferecer denuncia, ate que a defesa contestou a confiabilidade do documento perante o tribunal.
O relator, ministro Reynaldo Soares da Fonseca, fundamentou a exclusao do relato dos autos em um conceito que tem ganhado centralidade nos debates sobre IA generativa: a alucinacao. Em sua decisao, o ministro observou que sistemas de IA generativa operam com base em probabilidades e padroes estatisticos, e podem produzir informacoes incorretas com aparencia de verdade. "Um dos riscos inerentes a utilizacao da inteligencia artificial generativa e a alucinacao, que consiste na apresentacao de informacoes imprecisas, irreais ou fabricadas, porem com aparencia de fidedignidade", registrou Fonseca.
A contradicao entre laudos que divide o caso
O caso concreto apresenta uma camada de complexidade que vai alem do debate sobre IA. O relato algoritmico contestou o laudo elaborado pelo Instituto de Criminalistica, orgao oficial de pericia vinculado ao estado. Enquanto a analise humana convencional nao identificou tracos articulatorios compativeis com a palavra citada na acusacao, o sistema de IA generativa produziu uma conclusao afirmativa com base em processamento estatistico de padroes auditivos.
A coexistencia de dois laudos com conclusoes opostas revelou na pratica a lacuna que a decisao do STJ intentou preencher: qual documento possui mais valor probatorio quando ha conflito entre analise humana especializada e processamento algoritmico? A resposta do tribunal foi inequivoca: sem verificabilidade e controle, relatos algoritmicos nao possuem confiabilidade epistmica minima para servir como prova no processo penal.
Para especialistas em direito digital, a decisao do STJ dialoga com um debate mais amplo sobre o papel da tecnologia na producao de provas. Ferramentas automatizadas podem ampliar o acesso a informacao e acelerar procedimentos, mas nao substituem o trabalho de analise tecnica qualificada. Quando falamos de direitos fundamentais como a liberdade, a exigencia de padroes rigorosos de verificacao nao e formalismo, e protecao.
Contexto tecnico: o que sao alucinacoes em sistemas de IA generativa
Para compreender a dimensao da decisao, e necessario entender o fenomeno tecnico que fundamentou o posicionamento do tribunal. Sistemas de linguagem natural baseados em modelos de grande escala sao projetados para gerar texto que seja estatisticamente consistente com seus dados de treinamento. Quando perguntados sobre informacoes que nao existem em seus conjuntos de treinamento ou sobre eventos especificos, esses modelos frequentemente produzem respostas que parecem plausiveis e detalhadas, mas que nao correspondem a fatos verificaveis.
Esse comportamento, chamado de alucinacao na literatura especializada, nao e um defeito acidental, mas uma propriedade inerente a arquitetura desses sistemas. Modelos de linguagem funcionam prevendo qual token e mais provavel que apareca apos o anterior em sequencias de treinamento, sem capacidade intrinseca de consultar bases de fatos externos no momento da geracao. Isso significa que, quando questionados sobre um audio especifico de um evento especifico, um sistema pode gerar uma descricao que se pareca com uma transcricao, mas que nao tenha correspondencia com o conteudo real do arquivo.
Pesquisadores de instituições academicas reconhecidas tem documentado casos em que sistemas de reconhecimento de fala baseados em aprendizado profundo produziram transcricoes nitidamente incorretas quando confrontados com sotaques especificos, ruido ambiental ou registros linguisticos nao representados adequadamente em seus dados de treinamento. A implicacao para contextos periciais e direta: qualquer sistema de IA aplicado a analise de conteudo audio-visual precisa ser avaliado quanto aos contextos nos quais foi treinado e quanto as condicoes nas quais sua precisao efetivamente se sustenta.
Limites da tecnologia em analise forense de audio
A ciencia forense de audio estabelecida ha décadas reconhece a complexidade envolvida na identificacao de fala em gravacoes com ruido, sobreposicoes de vozes ou qualidade tecnica limitada. Os padroes acusticos que permitem distinguir fonemas dependem de condicoes de gravacao que raramente sao ideia em ambientes naturais. A fonetica forense utiliza metodologias padronizadas por associacoes cientificas internacionais, com exigencias de controle de qualidade, validacao de metodologia e documentacao de incertezas associadas as conclusoes.
Essas exigencias contrastam com o funcionamento de sistemas de IA generativa, que nao foram projetados especificamente para analise forense, nao possuem certificacao de precisao para o contexto especifico da gravacao em questao e nao produzem documentacao comparavel a que uma pericia oficial exige. Um relato gerado por um chatbot nao contem informacoes sobre o modelo acustico utilizado, sobre as condicoes de treinamento, sobre os niveis de confianca estatistica ou sobre as limitacoes reconhecidas pelo sistema. Essa opacidade tecnica e precisamente o que o STJ identificou como incompativel com os requisitos de confiabilidade epistmica minimos para sustentar uma acusacao penal.
Impactos sobre investigacoes criminais que ja utilizam IA
A decisao do STJ nao proibe o uso de ferramentas de inteligencia artificial no processo penal. O tribunal deixou explicito que a questao central nao estava na legalidade da utilizacao dessas ferramentas para apoiar atividades investigativas, mas sim na admissibilidade de seu produto como prova. Isso significa que investigadores podem continuar usando IA para identificar padroes, priorizar linhas de investigacao ou analisar grandes volumes de dados, desde que as conclusoes algoritmicas nao sejam utilizadas diretamente como fundamento para denuncia ou condenacao.
Na pratica, porem, muitas investigacoes ja dependem de algum grau de processamento algoritmico. Sistemas de reconhecimento facial utilizados pela Policia Civil, ferramentas de analise de rede social para identificar grupos criminosos e plataformas de processamento de linguagem natural para triagem de comunicacoes sao utilizadas em diferentes niveis nos estados brasileiros. A decisao do STJ nao invalida automaticamente esses sistemas, mas exige que qualquer conclusao produzida por eles seja corroborada por meios tradicionais admissiveis antes de fundamentar uma acusacao.
A questao que permanece em aberto e como os tribunais devem proceder quando um sistema de IA produz uma pista que, investigada por meios tradicionais, leva a evidencias condenatorias. Nesse cenario, a decisao de primeira instancia nao seria fundamentada no relato algoritmico, mas na prova obtida atraves do acompanhamento convencional, e nesse caso, a jurisprudencia do STJ nao impediria a condenacao. O que o tribunal vedou foi a utilizacao do produto algoritmico como prova por si, nao como instrumento de investigacao que direciona buscas tradicionais.
A posicao do Ministerio Publico e da defesa
O Ministerio Publico de Sao Paulo sustentou, no caso em questao, que a utilizacao de IA como ferramenta de analise nao difere fundamentalmente do uso de outros recursos tecnologicos que se tornaram rotineiros na investigacao criminal, como equipamentos de monitoramento, bases de dados ou software de analise de dados. A acusacao argumentou que a IA representava simplesmente uma evolucao das ferramentas de investigacao, nao uma tecnologia fundamentalmente distinta em sua natureza probatoria.
A defesa, por sua vez, enfatizou a impossibilidade de se verificar a metodologia utilizada pelo sistema, a ausencia de documentacao tecnica sobre o funcionamento interno do algoritmo, a impossibilidade de confrontar o relato com os parametros de analise utilizados e a falta de qualquer mecanismo de responsabilizacao caso o sistema tenha produzido uma conclusao incorreta. O advogado do vice-prefeito argumentou que utilizar um documento com essas caracteristicas para fundamentar uma acusacao criminal representava violacao ao principio do contraditorio e da ampla defesa, pois a parte accusada nao tinha como confrontar efetivamente as bases tecnicas da conclusao.
O STJ acolheu a posicao da defesa. Em sua decisao, o tribunal nao apenas excluiu o relato algoritmico dos autos, como tambem determinou que o magistrate de primeiro grau profira nova decisao sobre a admissibilidade da acusacao, sem considerar o documento produzido por IA.
Perspectiva comparada: como outros paises tratam a questao
O debate sobre admissibilidade de provas baseadas em IA no direito penal nao e exclusivo do Brasil. Em 2025, tribunais alemães enfrentaram questoes semelhantes ao analisar evidencias de reconhecimento facial utilizadas em investigacoes de crime organizado. A Corte Federal de Justica alemã estabeleceu que sistemas de reconhecimento facial devem passar por validacao tecnica especifica para o contexto de uso, com documentacao que permita ao tribunal avaliar a confiabilidade do sistema antes de admitir as evidencias.
Nos Estados Unidos, a Suprema Corte emitiu em 2024 determinacoes sobre o uso de evidencias geradas por algoritmos de analise preditiva em casos de sentenciacao, estabelecendo que interessados tem o direito de confrontar a metodologia estatistica subjacente. Embora os precedentes estadounidenses nao sejam diretamente aplicaveis ao sistema juridico brasileiro, eles informam o debate internacional sobre os padroes minimos de transparencia exigidos para provas algoritmicas.
A Uniao Europeia, com a entrada em vigor do AI Act em agosto de 2024, criou um framework regulatorio especifico para sistemas de IA utilizados em contextos de alto risco, incluindo aplicacoes no sistema de justica. O regulamento europeu exige que sistemas de IA utilizados para apoiar decisoes judiciais sejam desenvolvidos com transparencia sobre suas limitacoes, documentacao tecnica que permita auditoria e mecanismos de supervisao humana. Embora o AI Act nao discipline diretamente a admissibilidade de provas em processos criminais, suas exigencias de transparencia e auditabilidade sao consistentes com os principios que o STJ explicitamente menciona em sua decisao.
Comparacao com o tratamento de outras tecnologias emergentes
Antes da IA generativa, outras tecnologias passaram por debates similares sobre admissibilidade probatoria. A analise de DNA, quando introduzida no sistema de justica americano na decada de 1990, enfrentou resistencia inicial sobre questoes de confiabilidade, padronizacao de metodos e capacidade do tribunal de avaliar complexidades tecnicas. Posteriormente, padroes tecnicos foram desenvolvidos, protocolos de validacao foram estabelecidos e a admissibilidade foi gradualmente reconhecida, desde que sujeita a contestacao processual sobre metodologia e erros.
A trajetoria do DNA oferece um paralelo util para a IA no processo penal: tecnologia nova nao e automaticamente inadmissivel, mas precisa desenvolver historico de confiabilidade, padronizacao de metodos e transparencia que permitam contestacao. O que diferencia a situacao atual da IA e a velocidade com que a tecnologia foi adotada em contextos investigativos sem que houvesse tempo para construcao desse historico, e a opacidade dos sistemas de IA generativa, que nao permitem aos tribunais acessar o historico de precisao do modelo para o contexto especifico da prova.
Contrapontos, criticas e limites da analise
A decisao do STJ, embora significativa, nao esgota o debate sobre o uso de IA no processo penal brasileiro. Ha pelo menos tres dimensoes criticas que merecem consideracao. Primeiro, a decisao pode ser interpretada como obstaculo a modernizacao das investigacoes criminais, especialmente em casos onde os recursos de pericia oficial sao insuficientes para lidar com grandes volumes de evidencias digitais. Segundo, a exigencia de supervisao humana pode ser utilizada para validar resultados algoritmicos sem realmente avaliar a qualidade tecnica do produto, criando um cheque em branco que efetivamente incorpora as conclusoes de IA atraves do crivo de um perito humano que nao tem como verificar independentemente a metodologia algoritmica. Terceiro, a decisao nao estabelece padroes claros sobre o que constitui documentacao minima aceitavel de sistemas de IA utilizados em investigacoes, deixando essa questao para casos futuros.
Ha tambem uma tensao estrutural a ser observada: enquanto tribunais estabelecem exigencias de confiabilidade para provas de IA, muitas forcas policias ja utilizam esses sistemas em investigacoes sem protocolos claros de documentacao ou validacao. Isso pode gerar uma situacao em que a fase de coleta de prova utiliza ferramentas de IA sem padronizacao, mas a fase de apresentacao de prova, perante o tribunal, exige padroes que nao foram seguidos durante a investigacao.
Especialistas em direito penal observam que a decisao do STJ aborda o procedimento criminal, mas nao resolve questoes de responsabilidade civil ou administrativa. Se um sistema de IA generativa produz informacao errada que leva a uma condenacao injusta, quem responde? O operador do sistema? O desenvolvedor? O delegado que solicitou a analise? Essas questoes permanecem abertas no ordenamento brasileiro.
Cenarios e sintese: o que esperar nos proximos anos
A decisao do STJ representa um marco inicial, nao um ponto de chegada. Nas Camaras Criminais dos tribunais estaduais e nas turmas do proprio STJ, novos casos tendem a revelar nuances nao abordadas no precedente. A expectativa de juristas especializados e que os proximos dois anos produzam uma jurisprudencia mais detalhada sobre tipos especificos de sistemas de IA, contextos de aplicacao e documentacao minima exigida.
Para o legislativo, o PL 2338/2023, marco legal da inteligencia artificial em tramitacao na Camara, deve abordar questoes de responsabilizacao que a decisao do STJ apenas tangenciou. O projeto prev e obrigacoes de transparencia para sistemas de IA utilizados em contextos sensiveis, mas sua tramitacao permanece paralisada por impasses politicos, e nao ha previsao clara de quando sera concluida.
Para investigadores e operadores do direito, a mensagem pratica da decisao e clara: relatos produzidos exclusivamente por sistemas de IA generativa nao atendem, por si sos, aos requisitos minimos de confiabilidade para sustentar acusacoes penais. A tecnologia pode ser ferramenta de investigacao, mas nao pode substituir a producao de provas verificaveis e impugnaveis. A supervisao humana exigida pelo STJ nao significa simplesmente referendar conclusoes algoritmicas, mas sim genuina avaliacao de evidencias por profissionais com capacidade tecnica para questionar, testar e autenticar os resultados produzidos por sistemas automatizados.
Permanecem, porem, questoes estruturais que somente poderao ser resolvidas por legislacao ou por regulamentacao especializada: como definir padroes minimos de transparencia para sistemas de IA utilizados em investigacoes? Quem certifica que um sistema de reconhecimento de fala e adequado para analise forense? Como garantir acesso da defesa aos parametros tecnicos utilizados em analises algoritmicas? Essas questoes nao foram respondidas pelo STJ, e sua resposta sera determinante para a forma como a justica criminal brasileira lidara com a inteligencia artificial nos proximos anos.
Este artigo foi elaborado com apoio de inteligência artificial generativa como ferramenta de assistência à redação. O conteúdo foi revisado e validado antes da publicação. As análises e opiniões expressas são de responsabilidade do autor e não constituem aconselhamento jurídico.
whats_your_reaction
like
0
dislike
0
love
0
funny
0
wow
0
sad
0
angry
0
Comentários (0)