Primeira decisao do STJ sobre IA como prova penal: o que o julgamento revela e o que ainda deixa em aberto
A Quinta Turma do Superior Tribunal de Justica rejeitou um relatorio produzido por inteligencia artificial generativa como prova em acao penal, estabelecendo o primeiro precedente brasileiro sobre o tema. A decisao aborda questoes fundamentais sobre confiabilidade cognitiva, transparencia algoritmica e os limites do uso de IA no processo criminal.
O caso que abriu a fronteira juridica da IA no processo penal
Em abril de 2026, a Quinta Turma do Superior Tribunal de Justica julgou um caso que se tornaria referencia para o direito brasileiro: a utilizacao de um relatorio produzido por inteligencia artificial generativa como prova em acao penal. O caso envolvia uma acusacao de racismo, na qual um software de analise de conteudo foi utilizado para confirmar a natureza ofensiva de mensagens. A defesa recorreu da condenacao argumentando que o relatorio algoritmico nao tinha validade probatoria. A Turma acolheu o recurso e decidiu que o documento nao possui confiabilidade epistemologica minima para ser utilizado como prova penal. Tratou-se do primeiro posicionamento do STJ sobre o uso de IA generativa como meio de prova criminal, e seus fundamentos ecoam muito alem do caso especifico.
A decisao do STJ nao proibiu o uso de inteligencia artificial no processo penal de manera geral. O tribunal reconheceu que ferramentas algoritmicas podem ter utilidade em diversas etapas do procedimento judicial, desde a triagem de processos ate a analise de documentos. O que a decisao estableceu foi um limite preciso: nao se pode substituir a verificacao humana e a prova tecnica tradicional por outputs de sistemas de IA generativa quando esses outputs nao sao verificaveis, auditaveis e passiveis de contraditorio. O caso especifico envolvia um relatorio gerado por IA que nao podia ser submetido a scrutinio tecnico por partes adversarias, o que comprometeu sua admissibilidade.
Epistemologia da prova penal: por que verificabilidade e requisito
O argumento central do STJ nao foi primariamente juridico-formal, mas epistemologico. A corte afirmou que a prova penal nao e qualquer informacao apresentada em um processo: ela precisa ser capaz de produzir conhecimento valido sobre os fatos. Esse conhecimento precisa ser verificavel por todos os sujeitos processuais e, especialmente, estar sujeito ao contraditorio. Quando um relatorio e produzido por um sistema de IA generativa cujas regras internas de funcionamento nao sao transparentes e cujos criterios de conclusao nao podem ser verificados por terceiros, ele nao preenche esse requisito fundamental. A corte indic o principio de que o contraditorio efetivo exige que a parte possa compreender e impugnar os meios de prova, o que e impossivel quando o metodo de producao da prova e opaco.
Esse posicionamento se alinha com uma discussao mais ampla na filosofia do direito processual penal. A prova penal tradicional opera com base em evidencias diretas ou periciais que podem ser reconstruidas e verificadas. A pericia criminal, por exemplo, exige metodo cientifico, reprodutibilidade e documentacao que permita a outros peritos avaliar as conclusoes. Quando um algoritmo gera uma conclusao sem documentacao metodologica transparente, ele se aproxima mais de uma afirmacao do que de uma prova. O STJ reconheceu essa diferenca estrutural e utilizou-a como fundamento para sua decisao.
A decisao tambem drew parallels com a jurisprudencia anterior do proprio STJ sobre a necessidade de que a atividade probatoria sustente inferencias logicas aptas a legitimar a decisao judicial. A corte enfatizou que a decisao judicial nao pode se fundamentar em probabilidades algoritmicas sem que se compreenda como essas probabilidades foram calculadas. Essa exigencia nao e formalismo: ela decorre da propria natureza do contraditorio como instrumento de protecao contra condenacoes baseadas em criterios inacessiveis ao reu.
O problema da opacidade algoritmica e a prova pericial
Um dos pontos mais tecnicos da decisao diz respeito a diferenca entre prova pericial e produto informacional de sistemas de IA. A prova pericial tradicional, quando realizada por um perito humano ou mesmo por instrumentos tecnicos validados, possui documentacao que permite a outro profissional reproduzir o exame e verificar as conclusoes. Existe um metodo, uma certificacao do instrumento utilizado e um laudo que descreve procedimentos e resultados de maneira compreensivel para o julgador. O relatorio gerado por IA generativa nao possui essas caracteristicas: ele e um output baseado em padroes estatisticos aprendidos durante o treinamento do modelo, sem transparencia plena sobre os criterios internos que levaram a conclusao.
Essa diferenca nao e apenas teorica. Quando um perito humano emite um laudo tecnico, ele assina o documento e pode ser interrogado em audiencia sobre seus metodos, credenciais e conclusoes. Quando um sistema algoritmico gera um relatorio, nao ha como interrogar o sistema sobre suas premissas, e os termos de servico de muitos modelos de IA sequer permitem que o funcionamento interno seja explicado ao detalhe. Essa assimetria compromete o funcionamento do contraditorio e e, segundo o STJ, razao suficiente para que o documento nao seja admitido como prova.
Especialistas em direito digital apontam que essa e uma distincao que nao se dissolve facilmente com o avanco tecnologico. Mesmo modelos mais recentes com maior transparencia ainda enfrentam o problema de que suas conclusoes sao frequentemente baseadas em correlacoes estatisticas que nao correspondem a relacoes causais verificaveis. Isso nao significa que a IA nao seja util em outras etapas do processo, mas que seu uso como fonte probatoria direta exige requisitos que ainda nao sao atendidos pela tecnologia atual.
Alucinacoes, vieses e os riscos concretos da prova algoritmica
A decisao do STJ tambem considerou o fenomeno conhecido como alucinacao de modelos de linguagem, termo tecnico para descrever a tendencia de sistemas de IA generativa de produzir contenidos plausiveis mas incorretos ou sem correspondencia com dados verificaveis. No contexto judicial, esse risco e particularmente serio. Uma decisao judicial que se fundamente em informacao incorreta gerada por um algoritmo pode levar a condenacoes injustas, e a dificuldade de identificar alucinacoes torna esse risco especialmente insidioso, porque o output pode parecer perfeitamente razoavel para quem nao tem acesso aos dados de treinamento ou aos criterios internos do modelo.
O STJ identificou um risco adicional no caso concreto: a insistencia na utilizacao do relatorio algoritmico mesmo apos pericia oficial ter concluido de maneira diversa. Esse padrao sugere um vies de confirmacao, no qual o julgador atribui peso excessivo a avaliacao probabilistica do algoritmo em detrimento de analise tecnica convencional. A corte reconheceu que esse tipo de vies pode ser inconsciente e sistematico, o que torna a admissibilidade de relatorios algoritmicos nao auditaveis uma questao de protecao do proprio funcionamento do sistema de justica.
Além das alucinacoes, ha a questo dos vies algoritmicos. Sistemas de IA sao treinados com dados historicos que refletem as desigualdades presentes na sociedade. Quando esses sistemas sao utilizados para analise de conteudo em contextos penais, podem reproduzir padroes de seletividade ja existentes no sistema de justica. Estudos internacionais demonstram que sistemas algoritmicos tendem a reproduzir e amplificar padroes historicos de discriminacao. Esse risco nao e hipotetico: e uma questo empirica documentada que o STJ considerou relevante para sua decisao.
A resolucao 615/2025 do CNJ e o contexto normativo do Judiciario
Paralelamente a decisao do STJ, o Conselho Nacional de Justica editou a resolucao 615/2025, que estabelece diretrizes de governanca, transparencia, auditabilidade e supervisao humana para sistemas algoritmicos utilizados pelo Poder Judiciario. A resolucao substituiu a antiga resolucao 332/2020 e criou estruturas como o Comite Nacional de Inteligencia Artificial. Esse movimento regulatorio mostra que o Judiciario brasileiro reconhece a necessidade de marcos proprios para o uso de tecnologia, e que a decisao do STJ nao e um evento isolado, mas parte de um esforco mais amplo de adequacao institucional.
A resolucao do CNJ nao cria proibicoes absolutas, mas estabelece exigencias proporcionais ao nivel de risco do sistema. Sistemas de IA utilizados para decisao judicial passam a exigir avaliacao de impacto, documentacao tecnica e supervisao humana. A resolucao tambem prevê classificacao de riscos e mecanismos de controle institucional. Esse arcabouco e relevante porque estabelece parametros tecnicos que complementam o precedente judicial do STJ: se a resolucao do CNJ for observada, a maior parte dos problemas identificados pelo STJ ja seria enderecada, porque os sistemas precisariam ser auditaveis e passiveis de supervisao humana.
O proprio CNJ reconhece que a evolucao normativa ainda nao esta completa. A dinamica de atualizacao das regras revela que o tema esta em construcao permanente, especialmente diante dos desafios trazidos pela IA generativa, que amplia exponencialmente a capacidade de produzir conteudo automatizado. A resolucao 615/2025 representa um avanco significativo, mas especialistas advertem que sua efetividade depende de implementacao pratica que ainda esta em curso em muitos tribunais.
Contrapontos: a eficiencia da IA versus garantias processuais
A decisao do STJ gerou debate entre juristas e operadores do direito. Uma das linhas de argumentacao contraria a decisao enfatiza a eficiencia. Sistemas de IA podem analisar grandes volumes de dados em tempo reduzido, identificam padroes que olhos humanos nao perceberiam e poderiam aumentar a qualidade da decisao judicial se corretamente utilizados. A proibicao ou restricao severa do uso de IA como prova poderia representar, nessa perspectiva, uma perda de eficiencia que prejudica o proprio sistema de justica.
Essa visao e rebatida por aqueles que defendem que o processo penal nao e orientado por eficiencia, mas por limites. O direito penal opera sob o principio da minima intervencao e da protecao de direitos fundamentais. A maximizacao de resultados nao pode justificar relativizacao de garantias processuais. O STJ parece ter se posicionado nesse campo ao afirmar que a eficiencia nao pode substituir garantias fundamentais. A decisao nao nega a utilidade da IA no processo, mas estabelece que sua utilizacao como fonte probatoria exige requisitos que ainda nao sao universalmente atendidos.
Ha tambem quem argumente que a decisao pode ser prematuremente restritiva em um momento em que a tecnologia ainda esta evoluindo rapidamente. Sistemas de IA com maior explicabilidade e transparencia podem, no futuro, atender aos requisitos de verificabilidade e contraditorio que hoje nao atendem. Impor padroes muito rigidos agora poderia frear o desenvolvimento de ferramentas que, com o tempo, poderiam ser perfeitamente adequadas ao uso judicial. Essa perspectiva e relevante, mas o STJ aparentemente decidiu que nao cabe ao Judiciario esperar o desenvolvimento tecnologico para estabelecer requisitos minimos de confiabilidade probatoria.
Limites da analise e o que permanece em aberto
A decisao do STJ e um marco, mas nao esgota o tema. Permanece aberto, por exemplo, a questo do uso de IA em fases pre-processuais, como investigacoes policiais. Se durante a investigacao um relatorio algoritmico e utilizado como elemento para justificar uma busca e apreensao, mas esse relatorio nao e admissivel como prova no processo, qual e o efeito juridico desse uso? A jurisprudencia ainda nao definiu claramente se a prova derivada de um relatorio algoritmico inadmissivel seria ela mesma contaminada, ou se o problema se limita ao documento gerado diretamente pela IA.
Tambem nao esta pacificado o padrao de como deve ser a auditoria tecnica de sistemas de IA utilizados pelo Judiciario. A resolucao 615/2025 do CNJ exige auditabilidade, mas nao detalha os procedimentos tecnicos pelos quais essa auditabilidade deve ser verificada na pratica. Esse e um campo em que ainda ha muito a desenvolver, tanto em termos de metodologia quanto de recursos humanos capacitados para realizar essas avaliacoes.
Por fim, permanece a tensao estrutural entre a velocidade da inovacao tecnologica e a lentidao do processo legislativo. Enquanto o PL 2338/2023 tramita no Congreso e a ANPD nao tem competencia claramente definida sobre IA no ambito judicial, o STJ e o CNJ estao construindo jurisprudencia e normas a partir de principios gerais da Constituicao e da legislacao existente. Esse fenomeno de criacao descentralizada de padroes juridicos para IA e, ao mesmo tempo, necessario e incompleto: necessario porque responde a uma lacuna real, incompleto porque gera fragmentacao e incerteza sobre padroes aplicaveis em diferentes contextos.
O que a decisao sinaliza para o futuro proximo
A decisao do STJ representa um divisor de aguas para o uso de IA no processo penal brasileiro. Ela estabelece que, sem verificabilidade e controle, nao ha prova penal valida, mesmo que o output algoritmico pareca convincente. Essa posicao protege o contraditorio e a confiabilidade do sistema de provas, mas tambem impe desafios praticos para orgaos acusadores que passaram a contar com ferramentas de IA generativa em suas investigacoes.
No curto prazo, a consecuencia mais imediata e que relatorios produzidos por sistemas de IA generativa sem transparencia metodologica nao serao admitidos como prova penal enquanto nao houver maneiras de torna-los auditaveis e passiveis de contraditorio. Isso nao significa que a IA nao pode ser usada como ferramenta de investigacao, mas que seus resultados nao podem fundamentar sozinhos uma condenacao. A prova penal continuara precisando de lastro em elementos verificaveis por meios tradicionais.
A medio prazo, a tendencia e que se desenvolvam padroes tecnicos de como sistemas de IA podem ser utilizados em contextos judiciais de maneira que atendam aos requisitos de verificabilidade. A resolucao 615/2025 do CNJ aponta nessa direcao, ao estabelecer exigencias de auditabilidade e supervisao humana. A questo e quanto tempo levara para que esses padroes estejam suficientemente desenvolvidos e implantados nos tribunais para que o uso de IA como ferramenta probatoria se torne mais amplo e seguro.
Este artigo foi elaborado com apoio de inteligência artificial generativa como ferramenta de assistência à redação. O conteúdo foi revisado e validado antes da publicação. As análises e opiniões expressas são de responsabilidade do autor e não constituem aconselhamento jurídico.
whats_your_reaction
like
0
dislike
0
love
0
funny
0
wow
0
sad
0
angry
0




Comentários (0)