Welcome!

Unlock your personalized experience.
Sign Up

STJ Estabelece Precedente Historico: Relatorios Gerados por Inteligencia Artificial Generativa Sao Rejeitados como Prova em Acao Penal

Em decisao historica, a Quinta Turma do STJ rejeitou relatorio de IA generativa como prova em action penal, estabelecendo parametros para admissibilidade de provas digitais.

April 27, 2026 - 19:36
0 1
STJ Estabelece Precedente Historico: Relatorios Gerados por Inteligencia Artificial Generativa Sao Rejeitados como Prova em Acao Penal

STJ Estabelece Precedente Historico: Relatorios Gerados por Inteligencia Artificial Generativa Sao Rejeitados como Prova em Acao Penal

Em decisao historica para o direito brasileiro, a Quinta Turma do Superior Tribunal de Justica STJ julgou, em 8 de abril de 2026, o Habeas Corpus 1.059.475/SP, no qual decidiu, por unanimidade, pela exclusao de relatorio produzido por inteligencia artificial generativa dos autos de uma acao penal que envolvia crimes de racismo. O caso marca o primeiro posicionamento oficial do STJ sobre o uso de IA generativa como instrumento de producao de prova penal no ordenamento juridico brasileiro.

O contexto processual envolveu a apresentacao, pela defesa ou pela acusacao, de um documento elaborado por sistema de inteligencia artificial generativa que pretendia validar ou infirmar o conteudo de uma gravacao alegadamente ofensiva. Na ausencia de pericia oficial convencional, o tribunal buscou apoio em laudo produzido por ferramenta de IA. A Quinta Turma, however, entendeu que o documento nao possui confiabilidade tecnico-cientifica suficiente para substituir ou complementar provas periciais no ambito penal.

A decisao, relatada pelo ministro Reynaldo Soares da Fonseca, estabeleceu parametros claros para a admissibilidade de provas geradas por IA no processo penal brasileiro. O Colegiado enfatizou que o sistema juridico exige confiabilidade na producao de provas, e que sistemas de IA generativa, por sua natureza probabilistica e dependente de dados de treinamento, nao podem ser considerados equivalentes a laudos periciais elaborados por profissionais humanos devidamente habilitados e submetidos a controle tecnico.

O julgamento do HC 1.059.475/SP representa um marco na jurisprudencia penal brasileira por diversas razoes. Em primeiro lugar, delimita o perimetro de admissibilidade de provas digitais no processo penal, impondo requisitos de verificabilidade e validacao tecnica incompativeis com a mera output de sistemas de IA. Em segundo lugar, sinaliza para a necessidade de regulamentacao especifica sobre o uso de inteligencia artificial nos procedimentos de apuracao criminal.

A decisao do STJ se insere em um movimento mais amplo de reflexao sobre o papel da inteligencia artificial no sistema de justica. Em janeiro de 2025, o Conselho Nacional de Justica CNJ editou a Resolucao nº 615/2025, que estabelece diretrizes para o uso de tecnologias de inteligencia artificial no Poder Judiciário. Essa resolucao, embora nao trate especificamente de provas penais, reconhece os riscos associados a delegacao de decisoes jurisdicionais a sistemas automatizados e exige supervisao humana obrigatoria.

No ambito legislativo, o Projeto de Lei nº 2.338/2023, que Institui o Marco Legal da Inteligencia Artificial no Brasil, tramita no Congresso Nacional e pode estabelecer regras gerais sobre a classificacao de sistemas de IA quanto ao nivel de risco, inclusive no ambito do processo judicial. O texto em tramitacao na Camera dos Deputados propõe obrigacoes de transparencia e rastreabilidade para sistemas de IA utilizados em contextos decisorios sensiveis.

A jurisprudencia comparada tambem oferece elementos relevantes para a analise. Na Uniao Europeia, o AI Act classifica os sistemas de IA utilizados em contextos jurisdicionais como de alto risco, sujeitando-os a obrigacoes rigorosas de transparencia e supervisao humana. Nos Estados Unidos, tribunais tem avaliado casos especificos envolvendo o uso de algoritmos de risco em sentencas criminais, com destaque para o precedente State v. Loomis, no qual a Suprema Corte de Wisconsin decidiu que o uso de software de risk assessment para informar decisoes de sentenca nao viola automaticamente o devido processo, desde que o instrumento nao seja o unico fator determinante.

No Brasil, o precedente estabelecido pelo STJ na decisao do HC 1.059.475/SP deve orientar a jurisprudencia dos tribunais estaduais e federais em casos futuros que envolvam provas geradas por inteligencia artificial. A necessidade de validacao tecnico-cientifica, a exigencia de supervisao humana e a impossibilidade de delegacao integral de atos decisorios a sistemas automatizados emergem como principios fundamentais do direito probatorio brasileiro na era da inteligencia artificial.

A analise da doutrina brasileira sobre provas digitais e inteligencia artificial revela que a questao central nao esta apenas na tecnologia utilizada, mas na garantia do contraditorio e da ampla defesa. A possibilidade de verificacao independente dos metodos utilizados na producao da prova, a transparencia dos algoritmos e a possibilidade de impugnacao tecnica sao elementos considerados indispensaveis pela literatura juridica contemporanea para a admissibilidade de provas baseadas em IA.

O precedente tambem levanta questoes sobre a responsabilidade profissional de advogados e promotores que apresentem laudos de IA em processos judiciais, bem como sobre o dever dos magistrados de avaliar criticamente a confiabilidade de provas tecnologicas antes de fundamentar suas decisoes. A formacao juridica continuada sobre inteligencia artificial e suas aplicacoes forenses torna-se, assim, uma necessidade crescente para operadores do direito brasileiro.

Acompanhe as proximas edicoes do informativo de jurisprudencia do STJ e as publicacoes do Portal do STF para acompanhar a evolucao da jurisprudencia sobre inteligencia artificial no processo penal brasileiro.

whats_your_reaction

like like 0
dislike dislike 0
love love 0
funny funny 0
wow wow 0
sad sad 0
angry angry 0

Comentários (0)

User