Welcome!

Unlock your personalized experience.
Sign Up

O STJ, a Prova Algorítmica e os Limites da Inteligência Artificial no Processo Penal

A primeira decisão do STJ sobre inteligência artificial como prova penal revela fragilidades técnicas da IA generativa, mas também expõe lacunas na fundamentação judicial que podem abrir precedentes perigosos.

May 04, 2026 - 14:50
0 2
O STJ, a Prova Algorítmica e os Limites da Inteligência Artificial no Processo Penal
Dirhoje
Dirhoje

O que aconteceu e por que importa

A Quinta Turma do Superior Tribunal de Justiça, no julgamento do HC 1.059.475/SP publicado em 8 de abril de 2026, decidiu, por unanimidade, que um relatório produzido por inteligência artificial generativa não pode ser admitido como prova em ação penal. O caso envolve uma denúncia por injúria racial registrada em Mirassol, no interior de São Paulo, após uma partida de futebol. O réu teria chamado a vítima de macaco, expressão supostamente captada em vídeo. A perícia oficial realizada pelo Instituto de Criminalística, com base em análise fonética e acústica, não conseguiu confirmar a presença da palavra no áudio. Diante desse resultado negativo, os investigadores recorreram às plataformas Gemini e Perplexity, que produziram um relatório indicando a existência da expressão ofensiva, em sentido contrário ao laudo pericial. Com base nesse documento algorítmico, o Ministério Público de São Paulo ofereceu a denúncia.

Direito e Tecnologia
Direito e Tecnologia
Prática Jurídica Moderna
Prática Jurídica Moderna

O julgado é o primeiro posicionamento do STJ sobre uso de inteligência artificial generativa como elemento probatório no processo penal, e o precedente que dele resultar pode moldar a forma como o sistema de justiça brasileiro lida com provas assistidas por algoritmos nos próximos anos. A decisão da Quinta Turma, liderada pelo ministro Reynaldo Soares da Fonseca, estabeleceu que relatórios produzidos por IA não possuem confiabilidade epistêmica mínima para sustentar uma acusação criminal, carecendo de metodologia científica verificável, auditabilidade e possibilidade de reprodução por terceiros. A relevância do caso ultrapassa as circunstâncias específicas do processo e toca em questões estruturais sobre o papel da tecnologia na reconstrução de fatos no campo penal, onde o ônus da prova recai de forma particularmente pesada sobre a acusação.

Contexto histórico e regulatório

O ordenamento jurídico brasileiro já previa, antes dessa decisão, requisitos mínimos para a validade da prova pericial no processo penal. Os artigos 158-A, 158-B e 159 do Código de Processo Penal exigem perito oficial, metodologia verificável, possibilidade de contraditório e responsabilidade jurídica de quem subscreve o laudo. Estes dispositivos foram concebidos para a era do papel e da perícia humana, mas oferecem base normativa suficiente para rejeitar a substituição integral da análise técnica tradicional por outputs algorítmicos. A cadeia de custódia, a cientificidade do método e a identificabilidade do responsável pela conclusão pericial são requisitos que um sistema de IA generativa, por sua natureza, não consegue satisfazer de forma direta.

No âmbito regulatório, o Conselho Nacional de Justiça avançou com a Resolução CNJ 615/2025, que estabelece diretrizes para o desenvolvimento, utilização e governança de soluções desenvolvidas com recursos de inteligência artificial no Poder Judiciário. A resolução substituiu a norma anterior e criou o Comitê Nacional de Inteligência Artificial do Judiciário, estabelecendo exigências de transparência, auditabilidade e supervisão humana. Determina que as ferramentas de IA devem sempre contar com supervisão humana efetiva, periódica e adequada, e que nenhuma decisão judicial pode ser tomada exclusivamente por sistema automatizado em matéria de direitos fundamentais. A resolução, contudo, ainda carece de regulamentação detallada sobre prova pericial assistida por IA, o que deixa lacunas que os tribunais precisam preencher com base em princípios gerais do direito probatório.

Dados, evidências e o que os números mostram

Até o momento do julgamento, não havia no Brasil julgado de tribunal superior que tratasse diretamente da admissibilidade de relatório de IA generativa como prova penal. O HC 1.059.475/SP é, portanto, a primeira decisão vinculante do STJ sobre o tema, e seu precedente será aplicado às instâncias inferiores. As ferramentas de IA generativa, como destacado na própria decisão, operam com base em padrões estatísticos e podem produzir informações incorretas com aparência de veracidade, fenômeno amplamente documentado na literatura técnica e conhecido como alucinação. Estudos acadêmicos sobre sistemas de detecção de conteúdo gerado por IA apontam taxas significativas de falsos positivos e falsos negativos, sem validade científica consolidada para uso judicial. Isso significa que, na prática, não existe hoje ferramenta tecnicamente robusta capaz de confirmar com segurança que um documento foi exclusivamente produzido por IA.

A decisão do STJ identificou também que as ferramentas utilizadas no caso processam textos, não sons, o que as tornava tecnicamente inadequadas para a análise de áudio em uma perícia de fonética forense. O relatório produzido pelas plataformas não informava os parâmetros utilizados, os comandos empregados ou a metodologia de processamento, o que tornava qualquer controle sobre sua formação materialmente impossível. A ausência de auditabilidade e reprodutibilidade, requisitos que a doutrina penal identifica como fundamentais para a validade da prova técnica, ficou exposta de forma particularmente clara quando o output algorítmico produziu conclusão oposta à da perícia oficial sem qualquer explicação sobre o motivo da divergência entre os dois documentos.

Impactos práticos e consequências

A imediata consequência prática da decisão é a exclusão do relatório de IA dos autos do processo e a determinação de que o juiz de primeiro grau profira nova decisão sobre a denúncia, sem considerar o documento algorítmico. Isso não significa o arquivamento da ação penal, que ainda terá análise pelo mérito com base nas demais provas existentes, incluindo o laudo pericial oficial, as imagens do fato e a prova oral. Para os advogados que atuam em casos envolvendo provas digitais, a decisão impõe a necessidade de observar requisitos técnicos rigorosos ao utilizar ferramentas de IA como suporte à argumentação. A identificação da ferramenta, da versão utilizada e da data de uso precisa constar em qualquer documento que pretenda ter valor probatório, sob pena de impugnação pela parte contrária.

Para o Ministério Público, a decisão representa um alerta sobre os limites do uso de tecnologia como substituto da prova técnica tradicional. A atuação do parquet, que ofereceu denúncia com base em relatório de IA sem fundamentar a contradição com o laudo oficial, poderá ser questionada em casos futuros sob o argumento de que houve precipitação na avaliação das provas. Para os tribunais e órgãos de controle, abre-se a necessidade de desenvolver protocolos internos sobre o uso de IA na investigação criminal, especialmente em crimes que dependem de análise técnica de áudios, imagens ou documentos. A ausência de tais protocolos expõe o sistema de justiça a decisões baseadas em ferramentas cujas limitações não são plenamente compreendidas pelos operadores do direito.

Contrapontos, críticas e limites da análise

O Ministério Público Federal, ao ser consultado sobre o caso, sustentou que a denúncia não se baseava exclusivamente no relatório de IA, mas também em prova oral, técnica, imagens do fato e testemunhas arroladas, argumentando que eventual controvérsia sobre a validade do documento deveria ser analisada no curso da instrução processual, sob o crivo do contraditório. Essa perspectiva tem mérito procedimental, pois o contraditório é de fato o espaço onde questões de admissibilidade probatória normalmente se resolvem. Contudo, conforme observado por especialistas da área forense digital, o problema mais grave do caso não está no procedimento, mas na análise crítica: o MP ofereceu denúncia com base em output algorítmico que contrariava diretamente o laudo pericial oficial, sem enfrentar a contradição. Essa omissão transformou o uso da IA em imprudência jurídica com consequências processuais diretas.

Há também uma fragilidade técnica na fundamentação do STJ que merece atenção crítica. A decisão pressupõe implicitamente que é possível identificar quando um documento foi gerado por IA, mas, como apontam especialistas em forense digital, não existe hoje meio técnico robusto e cientificamente validado para fazer essa identificação com segurança. Se o raciocínio for lido como identificamos que era IA e, por isso, invalidamos, abre-se o argumento inverso: neste caso, não há como detectar; logo, a prova é válida. Esse problema técnico fragiliza o precedente e pode criar brechas para defesa de provas geradas por IA em casos onde a detecção é mais difícil. A fundamentação mais sólida, que não foi plenamente desenvolvida no acórdão, deveria ter enfatizado que o documento não atende aos requisitos legais de validade pericial independentemente de ter sido produzido por IA, já que falta-lhe responsável identificado, metodologia verificável e possibilidade de contraditório efetiva.

Cenários e síntese

No cenário mais provável, o precedente do HC 1.059.475/SP será utilizado como argumento padrão em casos futuros envolvendo provas assistidas por IA, exigindo que advogados e promotores demonstrem a metodologia utilizada, o responsável técnico pelo documento e a compatibilidade com os requisitos legais da prova pericial. Tribunais inferiores tendem a seguir a orientação do STJ, especialmente em casos de crimes graves onde a condenação depende de prova técnica. Paralelamente, é esperado que o CNJ avance na regulamentação detallada da Resolução 615/2025, incluindo normas específicas sobre IA como instrumento auxiliar de perícia criminal. Esse movimento regulatório pode criar um caminho para o uso legítimo de ferramentas de IA no processo penal, desde que observados requisitos de transparência e supervisão humana.

A síntese que emerge deste caso é que a inteligência artificial generativa, tal como disponível atualmente, não é compatível com os requisitos mínimos de confiabilidade epistêmica que o processo penal exige para sustentar uma condenação. A decisão do STJ marca um limite importante, mas sua fragilidade argumentativa sobre a detectabilidade da IA como critério de invalidade precisa ser corrigida em julgamentos futuros para que o precedente não se torne uma armadilha processual. O desafio para o sistema de justiça não é proibir o uso de IA, mas criar protocolos que permitam utilizar suas capacidades sem comprometer as garantias constitucionais do devido processo legal, da ampla defesa e do contraditório. Enquanto esses protocolos não forem definidos, a prudência recomenda que advogados evitem apresentar outputs de IA diretamente como prova técnica nos autos penais.

whats_your_reaction

like like 0
dislike dislike 0
love love 0
funny funny 0
wow wow 0
sad sad 0
angry angry 0
Prática Jurídica Moderna
Prática Jurídica Moderna

Comentários (0)

User
Dirhoje
Dirhoje
Dirhoje
Dirhoje