STJ Estabelece Precedente Historico: Relatorios Gerados por Inteligencia Artificial Generativa Sao Rejeitados como Prova em Acao Penal
Quinta Turma do STJ rejeitou, por unanimidade, relatorio de IA generativa como prova em action penal. Decisao abre precedente sobre admissibilidade de provas digitais.
STJ Estabelece Precedente Historico: Relatorios Gerados por Inteligencia Artificial Generativa Sao Rejeitados como Prova em Acao Penal
Em decisao historica para o direito brasileiro, a Quinta Turma do Superior Tribunal de Justica STJ julgou, em 8 de abril de 2026, o Habeas Corpus 1.059.475/SP, no qual decidiu, por unanimidade, pela exclusao de relatorio produzido por inteligencia artificial generativa dos autos de uma acao penal que envolvia crimes de racismo. O caso marca o primeiro posicionamento oficial do STJ sobre o uso de IA generativa como instrumento de producao de prova penal no ordenamento juridico brasileiro.
O contexto processual envolveu a apresentacao, pela defesa ou pela acusacao, de um documento elaborado por sistema de inteligencia artificial generativa que pretendia validar ou infirmar o conteudo de uma gravacao alegadamente ofensiva. Na ausencia de pericia oficial convencional, o tribunal buscou apoio em laudo produzido por ferramenta de IA. A Quinta Turma, however, entendeu que o documento nao possui confiabilidade tecnico-cientifica suficiente para substituir ou complementar provas periciais no ambito penal.
A decisao, relatada pelo ministro Reynaldo Soares da Fonseca, estabeleceu parametros claros para a admissibilidade de provas geradas por IA no processo penal brasileiro. O Colegiado enfatizou que o sistema juridico exige confiabilidade na producao de provas, e que sistemas de IA generativa, por sua natureza probabilistica e dependente de dados de treinamento, nao podem ser considerados equivalentes a laudos periciais elaborados por profissionais humanos devidamente habilitados e submetidos a controle tecnico.
O julgamento do HC 1.059.475/SP representa um marco na jurisprudencia penal brasileira por diversas razoes. Em primeiro lugar, delimita o perimetro de admissibilidade de provas digitais no processo penal, impondo requisitos de verificabilidade e validacao tecnica incompativeis com a mera output de sistemas de IA. Em segundo lugar, sinaliza para a necessidade de regulamentacao especifica sobre o uso de inteligencia artificial nos procedimentos de apuracao criminal.
A decisao do STJ se insere em um movimento mais amplo de reflexao sobre o papel da inteligencia artificial no sistema de justica. Em janeiro de 2025, o Conselho Nacional de Justica CNJ editou a Resolucao nº 615/2025, que estabelece diretrizes para o uso de tecnologias de inteligencia artificial no Poder Judiciário. Essa resolucao, embora nao trate especificamente de provas penais, reconhece os riscos associados a delegacao de decisoes jurisdicionais a sistemas automatizados e exige supervisao humana obrigatoria.
No ambito legislativo, o Projeto de Lei nº 2.338/2023, que Institui o Marco Legal da Inteligencia Artificial no Brasil, tramita no Congresso Nacional e pode estabelecer regras gerais sobre a classificacao de sistemas de IA quanto ao nivel de risco, inclusive no ambito do processo judicial. O texto em tramitacao na Camera dos Deputados propõe obrigacoes de transparencia e rastreabilidade para sistemas de IA utilizados em contextos decisorios sensiveis.
A jurisprudencia comparada tambem oferece elementos relevantes para a analise. Na Uniao Europeia, o AI Act classifica os sistemas de IA utilizados em contextos jurisdicionais como de alto risco, sujeitando-os a obrigacoes rigorosas de transparencia e supervisao humana. Nos Estados Unidos, tribunais tem avaliado casos especificos envolvendo o uso de algoritmos de risco em sentencas criminais, com destaque para o precedente State v. Loomis, no qual a Suprema Corte de Wisconsin decidiu que o uso de software de risk assessment para informar decisoes de sentenca nao viola automaticamente o devido processo, desde que o instrumento nao seja o unico fator determinante.
No Brasil, o precedente estabelecido pelo STJ na decisao do HC 1.059.475/SP deve orientar a jurisprudencia dos tribunais estaduais e federais em casos futuros que envolvam provas geradas por inteligencia artificial. A necessidade de validacao tecnico-cientifica, a exigencia de supervisao humana e a impossibilidade de delegacao integral de atos decisorios a sistemas automatizados emergem como principios fundamentais do direito probatorio brasileiro na era da inteligencia artificial.
A analise da doutrina brasileira sobre provas digitais e inteligencia artificial revela que a questao central nao esta apenas na tecnologia utilizada, mas na garantia do contraditorio e da ampla defesa. A possibilidade de verificacao independente dos metodos utilizados na producao da prova, a transparencia dos algoritmos e a possibilidade de impugnacao tecnica sao elementos considerados indispensaveis pela literatura juridica contemporanea para a admissibilidade de provas baseadas em IA.
O precedente tambem levanta questoes sobre a responsabilidade profissional de advogados e promotores que apresentem laudos de IA em processos judiciais, bem como sobre o dever dos magistrados de avaliar criticamente a confiabilidade de provas tecnologicas antes de fundamentar suas decisoes. A formacao juridica continuada sobre inteligencia artificial e suas aplicacoes forenses torna-se, assim, uma necessidade crescente para operadores do direito brasileiro.
Acompanhe as proximas edicoes do informativo de jurisprudencia do STJ e as publicacoes do Portal do STF para acompanhar a evolucao da jurisprudencia sobre inteligencia artificial no processo penal brasileiro.
whats_your_reaction
like
0
dislike
0
love
0
funny
0
wow
0
sad
0
angry
0
Comentários (0)