STJ e prova gerada por inteligência artificial: o que decidiu o HC 1.059.475 e por que a decisão importa
Pela primeira vez, o Superior Tribunal de Justiça tomou posição sobre o uso de relatórios de inteligência artificial generativa como prova no processo penal. O acórdão da Quinta Turma fixou que tais documentos não possuem confiabilidade epistemêmica mínima. Entenda o caso e suas implicações.
Um precedente que não podia esperar
O Superior Tribunal de Justiça decidiu, no dia 7 de abril de 2026, pela primeira vez de forma expressa e vinculante, sobre a utilização de relatórios produzidos por inteligência artificial generativa como prova no processo penal brasileiro. A Quinta Turma do tribunal, ao julgar o Habeas Corpus nº 1.059.475/SP, relatado pelo ministro Reynaldo Soares da Fonseca, considerou que o chamado "relatório técnico" gerado por sistemas de IA a partir de prompts formulados por autoridade policial não possui a confiabilidade epistêmica mínima necessária para servir como prova em ação penal. A decisão foi unânime e representou um divisor de águas em um debate que, até então, carecia de pronunciamento judicial de instância superior.
O caso originou-se de um processo por crime de injúria racial. Durante a investigação, a autoridade policial submeteu imagens do fato ao Instituto de Criminalística, que produziu dois laudos técnicos e concluiu pela impossibilidade de estabelecer qualquer correlação entre o material imagético disponível e a agressão investigada. Insatisfeita com esse resultado, a autoridade policial determinou então a submissão do mesmo material a dois sistemas de inteligência artificial generativa — Perplexity e Gemini — formulando prompts como "transcreva na íntegra o áudio do vídeo", "gere imagens que ilustrem o contexto" e "explique como a imagem gerada se relaciona aos fatos". Os outputs desses sistemas foram compilados em um documento chamado "Relatório Técnico" e utilizados para contrapor-se às conclusões da perícia oficial.
O que o STJ decidiu e por que o fundamentou assim
A tese central da decisão é direta: relatórios produzidos por sistemas de inteligência artificial generativa não constituem prova penal válida porque não dispõem do atributo mínimo que condiciona a admissibilidade de qualquer elemento no processo penal — a confiabilidade epistêmica. O tribunal não discutiu a questão primordialmente sob o ângulo da ilicitude na obtenção da prova, mas sim sob o prisma mais fundamental da ausência de credencial epistemológica. Em outras palavras, o problema não foi como a autoridade policial obteve o material, mas o fato de que esse material, em sua natureza, não é capaz de produzir conhecimento válido sobre os fatos.
A decisão recorreu a uma analogia que ganhou repercussão entre operadores do direito: o uso de IA generativa como prova no processo penal seria comparável à consulta a um cartomante ou à apresentação de uma carta psicografada. Ainda que, por acaso, o resultado pudesse coincidir com a verdade dos fatos, isso não lhe conferiria qualquer valor probatório, porque o processo que o gerou não possui validade epistemológica, não é reproduzível, não é auditável e não pode ser questionado pelas partes por meio do contraditório.
Alucinação algorítmica como risco estrutural
O acórdão destacou o fenômeno das alucinações dos sistemas de inteligência artificial generativa — amplamente documentado na literatura técnica — como um fator que, por si só, compromete fatalmente a confiabilidade de seus outputs em contextos que exigem precisão factual. Alucinações são a produção, por parte do sistema, de informações que possuem aparência de veracidade mas não possuem correspondência com dados verificáveis. Em um ambiente de investigação criminal, onde a precisão factual é condição de legitimação de qualquer decisão que afete a liberdade das pessoas, esse risco não é aceitável.
A decisão também enfrentou a tentativa de tratamento do relatório de IA como prova técnica. O tribunal rejeitou expressamente essa equiparação. A prova pericial tradicional, regulamentada pelo Código de Processo Penal, é fundada em método científico, reprodutibilidade e auditabilidade: o laudo pericial descreve a metodologia utilizada, os equipamentos empregados, os dados observados e as conclusões derivadas, permitindo que a parte contrária, por meio de assistente técnico, questione os critérios e peça complementação ou contraprova. O relatório gerado por IA generativa não oferece nenhum desses elementos: sua metodologia interna é opaca, seus critérios de inferência não são explicitados e seu conteúdo não é controlável ou refutável pelas partes.
Cadeia de custódia e a questão da inexistência de prova
A defesa, no habeas corpus, fundamentou-se primariamente na violação à cadeia de custódia da prova, instituto positivado pelos artigos 158-A a 158-F do Código de Processo Penal, com redação dada pela Lei nº 13.964/2019. A cadeia de custódia exige que sejam documentados os procedimentos adotados para preservar a integridade e a autenticidade de vestígios e provas ao longo de todo o ciclo investigativo, permitindo a verificação posterior de que o material analisado é genuíno e não foi alterado.
O STJ reconheceu a relevância do instituto, mas considerou que, no caso concreto, a questão da cadeia de custódia era posterior e secundária a um problema mais grave e logicamente anterior: para que se cogite de rastreabilidade e auditabilidade, é necessário que exista antes uma prova a ser rastreada. Solicitar a um sistema de IA generativa que elabore transcrições e produza imagens contextuais vinculadas a um episódio investigado não gera elemento probatório, mas sim conteúdo sintético computacionalmente gerado, sem correspondência necessária com a realidade dos fatos. O problema, portanto, não é apenas que o relatório de IA não atende aos requisitos de cadeia de custódia — é que ele não atende aos requisitos mínimos de qualquer prova, porque não contém conhecimento sobre os fatos, mas apenas padrões estatísticos recombinados de forma simulada.
A circularidade epistêmica inaceitável
Um aspecto particularmente relevante do caso, e que foi destacado pelo tribunal, é a circularidade epistêmica em que a autoridade investigadora incorreu. O sistema de IA foi instado não a processar dados reais pré-existentes — como ocorre na análise forense digital tradicional, em que se extraem e interpretam dados de dispositivos eletrônicos — mas a criar conteúdo imagético e interpretativo. O sistema produziu o dado e, em seguida, "interpretou" o dado que ele próprio havia produzido. Tratou-se, portanto, de um output autorreferente, sem qualquer ancoragem em evidência externa, que foi nevertheless utilizado como prova pelas autoridades de primeiro e segundo graus da Justiça paulista.
Os limites da decisão e o que ainda está em aberto
É importante delimitar o alcance do precedente. A decisão do STJ no HC 1.059.475/SP não proíbe o uso de qualquer ferramenta de inteligência artificial no contexto da persecução penal. Sistemas de IA podem ser utilizados legitimamente em diversas etapas do processo — na triagem e classificação de processos, na análise de grandes volumes de dados documentos, na detecção de padrões em bases de dados públicas ou na assistência à atividade jurisdicional, desde que respeitados os limites da supervisão humana e da explicabilidade.
O que a decisão proíbe é o uso de outputs de IA generativa como elemento de prova, isto é, como base para inferências fáticas que fundamentem decisões judiciais. A distinção é relevante. Um sistema de IA pode auxiliar uma autoridade a identificar linhas de investigação promissoras, a localizar padrões em grandes bases de dados ou a sistematizar informações já existentes; não pode, contudo, substituir a perícia oficial na produção de conhecimento sobre os fatos, porque não opera no registro da verificação, mas no registro da geração estatística de conteúdo.
Essa delimitação deixa, ainda, uma zona cinzenta significativa. Sistemas de IA baseados em aprendizado de máquina, que não são estritamente generativos mas analisam e classificam dados reais, ocupam uma posição intermediária que o precedente ainda não enfrentou. A resolução CNJ nº 615/2025, que estabelece diretrizes de governança e transparência para sistemas algorítmicos no Poder Judiciário, pode vir a preencher parte desse vazio, mas seu escopo é restrito ao uso interno do Judiciário e não abrange a atividade investigatória do Ministério Público ou da Polícia Judiciária.
A questão da prova digital tradicional
Não se deve confundir o problema analisado pelo STJ com a validade da prova digital em geral. A extração e análise de dados de dispositivos eletrônicos, fotografias georreferenciadas, registros de comunicação e outros elementos nativos do ambiente digital continuam a ser regulados pelo marco probatório tradicional, desde que observados os procedimentos legais de coleta, armazenamento e apresentação. A jurisprudência brasileira já consolidou, em linhas gerais, os requisitos de admissibilidade da prova digital, que incluem a demonstração da integridade do dado extraído, a descrição da metodologia de coleta e a possibilidade de verificação independente.
Contrapontos: limites e perspectivas críticas
A decisão do STJ não é isenta de críticas legítimas. Uma primeira linha de objeção sustenta que o tribunal adotou uma posição excessivamente proibitiva que pode conflitar com a evolução natural da tecnologia. Sistemas de IA generativa estão em rápida evolução e sua precisão tende a aumentar significativamente nos próximos anos; uma decisão baseada nas limitações técnicas atuais pode tornar-se rapidamente anacrônica se aplicada de forma rígida, sem considerar o progresso tecnológico.
Uma segunda crítica, de natureza mais estrutural, aponta para o risco de que a decisão reforce assimetrias já existentes no sistema de justiça. autoridades policiais e Judiciárias com maior recursos tecnológicos podem continuar a acessar e utilizar ferramentas de IA de forma sofisticada, enquanto defesas desprovidas de recursos ficam impedidas de confrontar esses elementos com equivalentes técnicos. Parte da doutrina argumenta que, em vez de proibi-los sumariamente, a melhor solução seria exigir que os outputs de sistemas de IA fossem acompanhados de documentação técnica suficiente para permitir o contraditório efetivo — o que, na prática, implicaria exigir que as autoridades demonstrassem conhecer e poder explicar o funcionamento interno dos sistemas que utilizam.
Uma terceira perspectiva, ainda mais fundamental, questiona se a estrutura probatória do processo penal está preparada para lidar com a crescente complexidade tecnológica dos meios de prova. A distinção entre prova lícita e prova confiável, que a decisão do STJ explorou com produtividade, pode não ser suficiente para cobrir todos os cenários que a tecnologia continuará a colocar — desde sistemas de reconhecimento facial com taxas de erro variáveis conforme a etnia do fotografado até algoritmos de análise preditiva de comportamento que operam com base em correlações estatísticas de origem incerta.
O que vem a seguir: necessidade de marco normativo
O precedente do STJ ocorre em um contexto em que o próprio CNJ ainda se encontra em processo de consolidação normativa sobre o uso de inteligência artificial no Poder Judiciário. A resolução CNJ nº 615/2025, que substituiu a resolução nº 332/2020, estabeleceu diretrizes de governança, transparência, auditabilidade e supervisão humana para o desenvolvimento e utilização de sistemas algorítmicos na Justiça, incluindo classificação de riscos e mecanismos de controle institucional. A criação do Comitê Nacional de Inteligência Artificial pelo CNJ reflete a reconhecimento interno da necessidade de governança institucionalizada.
Contudo, essas iniciativas abrangem exclusivamente o uso de IA pelo Poder Judiciário. A atividade investigatória do Ministério Público e da Polícia Judiciária permanece, em grande medida, desprovida de regras específicas sobre o uso de sistemas de IA — tanto no que se refere à legitimidade da utilização de ferramentas generativas quanto no que tange aos requisitos técnicos e procedimentais para que eventuais outputs possam, em tese, ser considerados elementos de informação utilizáveis no processo.
A decisão do STJ no HC 1.059.475/SP funciona, portanto, como um alerta regulatório: sem marcos normativos específicos que disciplinem o uso de IA na persecução penal, o vácuo será preenchido caso a caso — o que, inevitavelmente, gerará insegurança jurídica e decisões contraditórias entre tribunais e turmas. A oportunidade regulatória permanece aberta, mas o tempo corre: a cada novo avanço da tecnologia generativa, novas formas de utilização irregular tendem a proliferar antes que a jurisprudência consiga acompanhar.
Este artigo foi elaborado com apoio de inteligência artificial generativa como ferramenta de assistência à redação. O conteúdo foi revisado e validado antes da publicação. As análises e opiniões expressas são de responsabilidade do autor e não constituem aconselhamento jurídico.
whats_your_reaction
like
0
dislike
0
love
0
funny
0
wow
0
sad
0
angry
0





Comentários (0)