Welcome!

Unlock your personalized experience.
Sign Up

Quando a máquina decide sem saber: o STJ e os limites da prova penal producida por inteligência artificial

A primeira decisão do STJ sobre uso de IA generativa como prova em processo penal revela limites jurídicos e epistemológicos que desafiam o sistema de justiça brasileiro.

May 02, 2026 - 23:35
0 0
Quando a máquina decide sem saber: o STJ e os limites da prova penal producida por inteligência artificial

O caso que mudou a jurisprudência sobre prova e tecnologia

A Quinta Turma do Superior Tribunal de Justiça decidiu, em abril de 2026, que um relatório produzido por inteligência artificial generativa não pode ser utilizado como prova em processo penal. O julgamento do habeas corpus 1.059.475/SP, relatado pelo ministro Reynaldo Soares da Fonseca, marcou o primeiro posicionamento do tribunal sobre o tema e estabelece um precedente que tende a influenciar decisões em todo o sistema judicial brasileiro. O caso envolveu uma acusação de injúria racial supostamente cometida após uma partida de futebol em Mirassol, no interior de São Paulo, contra um segurança do Palmeiras. O áudio da suposta ofensa foi analisado primeiramente pelo Instituto de Criminalística, que não confirmou a presença do termo no áudio. Diante desse resultado negativo, investigadores recorreram às plataformas de inteligência artificial Gemini e Perplexity para analisar o mesmo vídeo, e o relatório produzido por essas ferramentas concluiu que a expressão ofensiva havia sido pronunciada. Com base nesse documento, o Ministério Público de São Paulo ofereceu denúncia em agosto de 2025.

A decisão do STJ não questionou a legalidade da obtenção desse relatório, nem alegou quebra da cadeia de custódia da prova. O problema identificado pelo relator foi de natureza diferente e mais profunda: a confiabilidade do documento como elemento probatório. O tribunal entendeu que o relatório algorítmico não possui a aptidão racional necessária para sustentar uma acusação penal, e determinou sua exclusão dos autos.

O problema central: confiabilidade epistêmica versus aparência de verdade

No voto que fundamentou a decisão, o ministro Reynaldo Soares da Fonseca chamou a atenção para um fenômeno característico dos sistemas de inteligência artificial generativa: a alucinação. O termo técnico designa a tendência desses modelos de produzir informações imprecisas, irreais ou fabricadas, porém com aparência de fidedignidade. Esse comportamento decorre da arquitetura desses sistemas, que operam com base em padrões estatísticos e probabilidades, e não com a pretensão de verificar correspondência com dados objetivos. No contexto judicial, o risco é particularmente grave porque a aparência de rigor técnico pode encobrir a ausência de qualquer método científico de validação.

O ministro também observou uma limitação técnica específica no caso analisado: as ferramentas utilizadas processam textos, e não sons. A análise fonética e acústica, que seria o método adequado para verificar a presença de uma palavra em um áudio, não pode ser realizada por modelos de linguagem treinados para gerar texto. Apesar disso, o relatório produzido pelas ferramentas de IA contrariou o laudo pericial oficial, gerando uma conclusão oposta à da ciência forense sem qualquer fundamentação técnica que justificasse a divergência.

Por que a decisão não se baseou em cadeia de custódia

Uma das questões que torna essa decisão especialmente relevante é que o tribunal optou por não fundamentá-la na quebra de cadeia de custódia, tema que dominou o debate jurídico sobre provas digitais nos últimos anos. A cadeia de custódia se refere à série de procedimentos que garantem a integridade da prova desde sua obtenção até seu uso no processo. Essa , embora relevante, seria insuficiente para cobrir o problema identificado pelo STJ, que é de natureza epistemológica: a diferença entre produzir conhecimento verificável e gerar conteúdo sintético com aparência de verdade.

A análise publicada pela Conjur identificou que essa escolha argumentativa é deliberada e significativa. Se o tribunal tivesse decidido com base na cadeia de custódia, a decisão seria limitada em seu alcance, aplicável apenas a casos em que houvesse falha procedural específica. Ao escolher o terreno da confiabilidade epistêmica, o STJ ampliou o alcance do precedente: qualquer documento produzido por IA generativa e apresentado diretamente como prova, sem a mediação de um perito humano responsável, enfrenta objeções estruturais que não dependem de como os dados foram obtidos.

Inteligência artificial não é prova pericial

Para compreender a distância entre um laudo pericial e um relatório algorítmico, é necessário recuperar o que distingue tecnicamente esses dois tipos de documento. A prova pericial, no ordenamento brasileiro, exige perito oficial ou habilitado, metodologia científica verificável, possibilidade de contraditório e responsabilidade jurídica de quem subscreve o documento. O perito assume responsabilidade legal pelo laudo, está sujeito a sanções por falso, e seu trabalho pode ser questionado em juízo por ambas as partes.

Um relatório produzido por IA generativa não possui nenhuma dessas características. O Gemini não presta compromisso legal. A Perplexity não pode ser inquirida. Nenhuma das duas responde por falso perante o tribunal. Os artigos 158-A, 158-B e 159 do Código de Processo Penal estabelecem requisitos que um documento precisa cumprir para valer como prova pericial, e esses requisitos não são satisfeitos por output de modelo de linguagem, independentemente de quão convincente seja o texto gerado.

A análise publicada pela plataforma Migalhas aprofundou essa distinção ao argumentar que a prova penal tradicional opera em um modelo de reconstrução factual: o perito examina vestígios e produz um documento que permite ao julgador inferir como os fatos provavelmente ocorreram. A inteligência artificial generativa, por contraste, não reconstrói fatos, produz hipóteses. O juiz que se baseia em um relatório algorítmico deixa de lidar com evidências diretamente verificáveis e passa a operar com inferências probabilísticas opacas, o que representa uma ruptura estrutural no modelo probatório penal.

Vieses algorítmicos e seletividade no sistema de justiça

A decisão do STJ também toca em uma questão que vai além do caso específico: o risco de que sistemas algorítmicos reproduzam e potencializem desigualdades estruturais já presentes no sistema de justiça. Sistemas de inteligência artificial são treinados com dados históricos, e os dados históricos do sistema de justiça brasileiro carregam os padrões de seletividade que a própria sociedade produz: maior incidência de investigação e acusação em comunidades periféricas, maior presença de determinados perfis socioeconômicos entre suspeitos e réus.

Quando um sistema algorítmico é utilizado para validar ou acelerar decisões no âmbito penal, ele não é neutro. Reflete os dados que o alimentaram, e opera como mecanismo de reprodução de padrões históricos de discriminação. A decisão do STJ reconheceu, ainda que indiretamente, que a insistência na utilização de relatórios de IA mesmo quando contrários à perícia oficial pode revelar um viés de confirmação, no qual a conclusão algorítmica é indevidamente privilegiada em detrimento do conhecimento técnico científico disponível.

O que a decisão não disse e os limites que permanecem

Embora a decisão seja pioneira e relevante, há um ponto técnico que a fundamentação do STJ não enfrentou com a mesma profundidade e que pode se tornar um flanco para questionamentos futuros. Não existe, até o momento, ferramenta tecnicamente robusta e cientificamente validada para determinar com certeza se um documento foi gerado exclusivamente por inteligência artificial. As ferramentas de detecção de IA disponíveis no mercado, como GPTZero e Originality.ai, apresentam taxas significativas de falsos positivos e falsos negativos, sem validade científica consolidada para uso judicial.

Esse limite cria uma vulnerabilidade argumentativa. Se o raciocínio da decisão for lido como identificamos que era IA e, por isso, invalidamos, abre-se a possibilidade de defesa no sentido inverso: se não é possível detectar que o documento foi feito por IA, ele seria válido. Tecnicamente, esse argumento inverso também seria defensável pelo mesmo raciocínio. O que a decisão precisava ter deixado mais claro é que o problema não é a origem tecnológica do documento, mas a ausência dos requisitos legais de validade da prova pericial, independentemente de como o documento foi produzido. Essa distinção teria fortalecido o precedente e evitado a vulnerabilidade argumentativa que ele apresenta.

Também é importante observar que a decisão se refere a um caso específico de uso direto de IA generativa como substituto de perícia. A situação é diferente quando um perito humano utiliza ferramentas de IA como apoio metodológico, assume responsabilidade pelo laudo, documenta o processo e responde pelas conclusões. Nesse cenário, a inteligência artificial funciona como ferramenta auxiliar do perito, e não como substituto da perícia. A linha entre uso assistido e uso substitutivo será um dos centros do debate jurídico nos próximos anos.

Impactos práticos para advogados e o sistema de justiça

Para os operadores do direito que lidam com provas digitais, a decisão impõe uma nova obrigação técnica: verificar ativamente se o output de qualquer ferramenta de IA contradiz elementos já presentes nos autos. No caso que chegou ao STJ, a análise produzida por IA chegou a uma conclusão oposta à do Instituto de Criminalística, e o Ministério Público ofereceu denúncia com base na versão algorítmica sem fundamentar a contradição. Essa omissão transformou o uso da IA em imprudência jurídica com consequências processuais diretas.

A obrigação de verificação ativa se estende a todos os profissionais que utilizam ferramentas de IA em contexto judicial. Advogados que subscrevem petições contendo citações jurisprudenciais geradas por sistemas de IA sem verificar sua autenticidade respondem pela irregularidade perante seus clientes e perante o juízo, independentemente de qualquer lei específica sobre IA. O dever de diligência profissional, previsto no Estatuto da OAB e no Código de Ética, não é afastado pelo uso de ferramentas tecnológicas.

Também é necessário documentar a cadeia de custódia do objeto submetido à IA: o arquivo ou conteúdo analisado deve ter sua integridade verificável por meio de hash calculado antes e após o processamento, o prompt utilizado deve ser registrado, e o output integral deve ser preservado, não apenas o trecho que interessa à parte. Sem esses elementos, a parte contrária tem fundamento sólido para impugnar a admissibilidade da prova.

Cenários e síntese

O mérito do habeas corpus 1.059.475/SP forçará o STJ a enfrentar perguntas que ainda não possuem resposta consolidada no ordenamento brasileiro. Quais são os requisitos mínimos para o uso de IA como instrumento auxiliar de perícia? Como garantir o contraditório diante de um sistema cujo funcionamento interno não é auditável? Qual o peso probatório de análises produzidas por modelos que variam seus resultados a cada consulta? Essas questões exigem não apenas decisões judiciais, mas também a absorção pelo debate jurídico do que a ciência forense digital já sabe sobre as capacidades e limitações desses sistemas.

A decisão de abril de 2026 representou um marco inicial, mas não uma resolução definitiva. Ela definiu que a IA generativa, tal como utilizada diretamente como produtora de provas, não atende aos requisitos mínimos de confiabilidade epistêmica exigidos pelo processo penal brasileiro. Dentro desse marco, porém, permanecem questões abertas sobre os limites do uso assistido de IA por peritos humanos, sobre os critérios para validação técnica de ferramentas específicas e sobre a responsabilidade profissional de quem utiliza outputs algorítmicos sem a devida supervisão.

O sistema de justiça brasileiro está, dessa forma, em um momento de calibragem. De um lado, a eficiência associada à IA é atraente em um contexto de elevada carga de processos. De outro, as garantias fundamentais do processo penal, contraditório, ampla defesa, presunção de inocência, impõem limites que não podem ser relativizados pela promessa de maior velocidade ou menor custo. A decisão do STJ nesse caso estabelece que a tecnologia é admitida no sistema de justiça, mas dentro de contornos que ainda estão sendo traçados.

whats_your_reaction

like like 0
dislike dislike 0
love love 0
funny funny 0
wow wow 0
sad sad 0
angry angry 0

Comentários (0)

User