STJ define limites para inteligência artificial como prova penal
Pela primeira vez, o Superior Tribunal de Justiça decidiu que um relatório produzido por inteligência artificial generativa não possui confiabilidade epistêmica para sustentar uma acusação penal. O acórdão, inédito no Brasil, deslocou o debate do campo da licitude para o campo da verificabilidade e abriu precedente que deve influenciar investigações e processos em todo o país.
O caso que abriu o precedente
Em fevereiro de dois mil e vinte e cinco, durante partida de futebol no Estádio Municipal José Maria de Campos Maia, em Mirassol, interior de São Paulo, um segurança do Palmeiras teria sido alvo de injúria racial. A vítima trabalhava como segurança do clube paulistano durante a partida disputada contra o Mirassol. O áudio com a suposta ofensa foi coletado e submetido a análise pericial pelo Instituto de Criminalística, órgão vinculado à Polícia Técnico-Científica do estado. O laudo oficial não identificou traços articulatórios compatíveis com o termo buscado. A análise pericial formal não encontrou evidências que sustentassem a acusação.
Inconformada com o resultado desfavorável à tese acusatória, a autoridade policial solicitou uma nova análise do mesmo material. Em vez de buscar uma segunda perícia oficial, a solicitação foi direcionada a ferramentas de inteligência artificial generativa de uso geral, o Gemini, do Google, e o Perplexity. Os relatórios produzidos por esses sistemas indicaram, em sentido contrário ao laudo oficial, traços compatíveis com o termo investigado. Com base nesses resultados algorítmicos, o Ministério Público de São Paulo ofereceu denúncia e a ação penal prosseguiu.
A defesa interpôs habeas corpus ao Tribunal de Justiça de São Paulo, que indeferiu a ordem. Em recurso ao Superior Tribunal de Justiça, o caso chegou à Quinta Turma sob a relatoria do ministro Reynaldo Soares da Fonseca. Em decisão histórica, o STJ não apenas suspendeu a ação penal de forma provisória, mas, no julgamento de mérito realizado em abril de dois mil e vinte e seis, o relatório algorítmico foi excluído do conjunto probatório e o processo foi devolvido à origem para reapreciação da admissibilidade da denúncia.
O deslocamento dogmático: da licitude para a confiabilidade epistêmica
O ponto mais relevante do acórdão não residiu na declaração de ilicitude da prova, algo que teria sido mais direto, mas também menos preciso. O relator afastou expressamente a tese de violação à cadeia de custódia prevista nos artigos 158-A a 158-F do Código de Processo Penal. A lógica foi a seguinte: mesmo admitindo que a obtenção do material fosse formalmente regular, restava pendente uma pergunta dogmaticamente mais fundamental: o produto entregue pelo sistema algorítmico era, em sua estrutura interna, capaz de ensejar inferências racionalmente justificáveis sobre o fato investigado?
A resposta categórica do STJ introduziu no ordenamento jurídico brasileiro um critério autônomo de admissibilidade probatória: a confiabilidade epistêmica. Isso significa que, ao lado da prova ilícita, aquela obtenida em violação a garantias fundamentais, posiciona-se agora uma categoria distinta: a prova epistemicamente não confiável. A distinção tem consequências práticas imediatas. Uma prova pode ser licitamente obtida e ainda assim inadmissível porque seu conteúdo não oferece base racional para a construção de conhecimento sobre os fatos. Essa formulação, ainda que pioneira no Brasil, tem raízes em conceitos consolidados na processualística europeia e na teoria geral da prova.
A separação entre o plano da legalidade do ato de produção e o plano da aptidão científica do produto probatório é a contribuição central do julgado. Até então, tribunais brasileiros tratavam questões envolvendo provas tecnológicas primariamente sob o prisma da legalidade de sua obtenção ou da integridade da cadeia de custódia. O STJ, no HC 1.059.475/SP, deslocou o eixo analítico para um território que a doutrina processual penal já explorava: a confiabilidade cognitiva da prova, isto é, a capacidade de o elemento informativo produzir conhecimento verificável sobre os fatos, e não apenas narrativa plausível mas não verificável.
Por que modelos de linguagem não são instrumentos de análise forense
O acórdão identificou dois déficits estruturais que comprometem a utilização de IA generativa como ferramenta de produção probatória em contextos forenses. O primeiro deles é o risco de alucinação, a tendência de modelos de linguagem de grande escala de apresentar informações imprecisas, irreais ou fabricadas como se fossem dados verificados, em formato convincente mas semanticamente vazio quanto à base factual. Essa característica é intrínseca à arquitetura de transformadores baseados em probabilidades: o modelo não consulta repositórios verificáveis em tempo real, mas produz sequências de tokens estatisticamente prováveis a partir dos padrões de seu treinamento.
O segundo déficit, igualmente importante, é a inadequação técnica. As ferramentas utilizadas pela autoridade policial, o Gemini e o Perplexity, são modelos de linguagem voltados ao processamento e geração de texto, não à análise acústica ou espectrográfica de sinais sonoros. A fonética forense exige instrumental técnico específico: análise espectrográfica, medição de frequências, comparação de formantes. Submeter um áudio a um modelo de linguagem generalista é incorrer em descompasso entre a função para a qual a ferramenta foi projetada e a finalidade para a qual está sendo utilizada. O STJ captou esse desalinhamento com clareza: a IA generativa de uso geral não realiza, em sentido próprio, análise de ondas sonoras, mas produz narrativa textual sobre o que percebe a partir de transcrições e descrições que lhe são fornecidas.
Prova penal, verdade verificável e os limites do modelo probabilístico
A prova penal brasileira exige, para condenação, que os fatos sejam demonstrados com base em elementos verificáveis, controláveis pelas partes e submetidos ao contraditório. Sem esses requisitos, não há prova penal válida, há apenas aparência de prova. Essa exigência tem fundamento constitucional no devido processo legal e no contraditório, e encontra proteção em tratados internacionais ratificados pelo Brasil, incluindo o Pacto Internacional sobre Direitos Civis e Políticos.
O modelo de inferência probabilística que sustenta sistemas de IA generativa opera em lógica diversa. Em lugar de reconstruir fatos a partir de evidências diretas, o sistema gera hipóteses estatisticamente plausíveis a partir de padrões identificados em grandes volumes de dados de treinamento. Essa diferença não é apenas técnica, é estrutural. O juiz que valora prova penal trabalha com inferências lógicas derivadas de evidências verificáveis. O sistema de IA generativa trabalha com inferências probabilísticas que podem ser corretas, incorretas ou parcialmente corretas, sem que seja possível ao operador humano distinguir entre esses três cenários com segurança.
A consequência, no processo penal, é particularmente grave. A condenação criminal exige padrão probatório de certeza moral, não de probabilidade. Quando um relatório algorítmico indica, sem que seja possível auditar como chegou a essa conclusão, que um áudio contém traços compatíveis com uma ofensa racial, o julgador enfrenta um produto informacional que não oferece os elementos necessários para o exercício do contraditório efetivo. Como impugnar um relatório cuja cadeia de raciocínio não é transparente? Como apresentar prova em contrário quando não se sabe como a conclusão foi produzida?
O viés de confirmação institucionalizado
Um aspecto particularmente crítico do caso, mencionado no acórdão, foi a sequência problemática: após resultado pericial oficial desfavorável à tese acusatória, recorreu-se à IA na esperança de obter produto convergente com a tese desejada. Essa lógica, que parte da doutrina descreve como busca até que se confirme, representa uma inversão do método científico e do princípio processual penal básico de que a prova se presta a verificar hipóteses, não a confirmá-las a priori.
O fenômeno do viés de confirmação é conhecido na psicologia cognitiva e na teoria da decisão. No contexto forense, sua manifestação mais tradicional é a tendência de investigadores confirmarem suspeitas já formadas ao selecionar e interpretar evidências de forma a sustentar a hipótese inicial. Ao transferir essa dinâmica para o domínio da IA generativa, somam-se duas camadas de distorção: o viés cognitivo humano e o viés algorítmico decorrente de sesgos de treinamento dos modelos de linguagem. Quando esses dois vetores apontam na mesma direção, o risco de erro probatório se multiplica.
Resolução CNJ número 615 e o vácuo regulatório que permanece
A Resolução CNJ número 615, editada em dois mil e vinte e cinco pelo Conselho Nacional de Justiça, estabelece diretrizes de governança para o uso de inteligência artificial no Poder Judiciário. O normativo aborda transparência, auditabilidade, supervisão humana e classificação de riscos para sistemas algorítmicos utilizados na prestação jurisdicional. Representa um avanço inegável na tentativa de criar um arcabouço regulatório para a IA no sistema de justiça.
Porém, a resolução do CNJ não resolve todas as lacunas. Seu escopo é restrito ao Poder Judiciário e não atinge diretamente o Ministério Público, a Polícia Civil ou os órgãos de investigação criminal, exatamente os espaços onde a IA generativa está sendo utilizada de forma menos regulada e mais experimental. Além disso, a própria resolução foi elaborada em ambiente tecnológico anterior à generalização do uso de modelos de linguagem de grande escala para finalidades forenses, e sua estrutura conceitual ainda trata a IA predominantemente como instrumento de apoio à decisão judicial, não como fonte probatória.
O vácuo regulatório mais amplo diz respeito ao uso de IA generativa como meio de prova pela acusação. Não existe, no ordenamento jurídico brasileiro, uma norma que defina os requisitos técnicos e procedimentais para que um produto de IA generativa possa ser admitido como elemento de acusação no processo penal. A ausência de regulamentação específica não impede, por si só, a produção de jurisprudência sobre o tema, como demonstrou o STJ, mas significa que cada caso será decidido de forma casuística, sem parâmetros gerais que permitam aos operadores do direito antever o status de um relatório algorítmico em diferentes contextos.
O debate internacional sobre IA e prova penal
A questão não é exclusivamente brasileira. Na União Europeia, a Diretiva de Prova Eletrônica e o Regulamento Geral de Proteção de Dados estabelecem marco inicial, mas ainda há significativo debate sobre admissibilidade de elementos produzidos por IA em procedimentos criminais. Nos Estados Unidos, tribunais têm enfrentado a questão da prova gerada por IA em casos criminais, com resultados variáveis conforme a jurisdição e o contexto específico de cada caso. Juristas como Rebecca Wexler e Sandra M. García têm destacado que a opacidade algorítmica representa ameaça ao devido processo legal quando impede a defesa de compreender e impugnar os elementos que sustentam a acusação.
A falta de padronização internacional significa que empresas de tecnologia que desenvolvem ferramentas de IA para uso forense operam em ambiente de incerteza regulatória. Não há padrões técnicos internacionalmente reconhecidos que definam, por exemplo, qual nível de explicabilidade um sistema de IA deve oferecer para que seus produtos possam ser utilizados como prova penal. Esse vácuo tem consequências práticas: cada jurisdição desenvolve suas próprias regras, e multinacionais enfrentam custos de conformidade variáveis conforme o país onde pretendem operar suas ferramentas.
Contrapontos, críticas e limites da análise
Uma objeção relevante à decisão do STJ é que ela pode dificultar o uso legítimo de ferramentas de IA em investigações criminais. Não são raras as situações em que sistemas algorítmicos auxiliam na triagem de grandes volumes de dados, na identificação de padrões de comunicação ou na correlação de informações que seriam humanamente inviáveis de processar. Barrar automaticamente qualquer produto de IA do processo penal pode, nessa perspectiva, privar investigações de instrumentos úteis.
Essa objeção tem peso, mas não atinge diretamente o núcleo do julgado. O STJ não decidiu que IA não pode ser usada em investigações, decidiu que produto de IA generativa de uso geral, sem método auditável e com riscos de alucinação, não pode ser usado como elemento probatório decisivo em um processo penal. A distinção é importante: um sistema de IA treinado especificamente para análise espectrográfica de áudio, com validação técnica e metodologia transparente, seria avaliado de forma distinta. O problema não é a tecnologia em si, mas o descompasso entre o que a ferramenta faz e o que dela se exige quando o padrão probatório é de certeza moral.
Outra crítica possível é que a decisão pode ser percebida como conservadorismo judicial diante da inovação tecnológica. Há quem argumente que o direito sempre evoluiu mais lentamente do que a tecnologia, e que o sistema judicial em algum momento terá que encontrar forma de integrar ferramentas de IA de forma segura e regulada. Essa crítica é legítima como alerta para a necessidade de atualização normativa, mas não invalida a decisão do STJ como resposta adequada às condições atuais. Um tribunal não pode se pronunciar sobre o que a tecnologia poderá fazer em cinco anos, deve pronunciar-se sobre o que ela faz agora, nos termos em que está disponível hoje.
Também é importante señalar que a decisão não resolve o problema da opacidade algorítmica de forma estrutural. O STJ construiu um precedente importante, mas cada caso que envolver produto de IA generativa seguirá demandando análise sobre a confiabilidade epistêmica do elemento específico oferecido. Não há, no ordenamento brasileiro, uma norma que diga que produtos de IA generativa são automaticamente inadmissíveis como prova penal, nem seria desejável que houvesse, dado que a tecnologia evolui rapidamente e uma regra assim seria demasiado rígida. O precedente funciona como parâmetro, não como regra absoluta.
Cenários e síntese
O precedente estabelecido pelo STJ no HC 1.059.475/SP deverá reverberar ao longo dos próximos anos. Pesquisadores de direito processual penal já identificam múltiplas iniciativas em curso, tanto na defesa quanto na acusação, para testar os limites do novo critério. É esperado que tribunais estaduais e superiores sigam recebendo variações do precedente, adaptando-o às especificidades de cada caso.
No campo da legislação, a aprovação do PL 2.338/2023, que estabelece o marco legal para inteligência artificial no Brasil, pode representar uma oportunidade para abordar, de forma abrangente, a questão da IA como meio de prova no processo penal. O projeto, que tramita no Congresso desde dois mil e vinte e três, foi objeto de intensos debates sobre governança de IA em dois mil e vinte e cinco e dois mil e vinte e seis, com votações adiadas em razão de impasses políticos e técnicos. Na medida em que avance, será a ocasião para que o legislador defina, com precisão, quais os requisitos de confiabilidade, explicabilidade e auditabilidade que um sistema de IA deve satisfazer para que seus produtos sejam admitidos como prova legal.
Enquanto isso, a Resolução CNJ número 615 oferece um ponto de partida incipiente, mas relevante, para a governança de IA no Poder Judiciário. Sua vigência e aplicação prática nos próximos anos mostrará se os padrões de transparência e supervisão humana lá estabelecidos são suficientes para mitigar os riscos que o STJ identificou, ou se serão necessários complementos normativos que abordem especificamente a questão probatória.
A síntese que o caso oferece é a seguinte: a inteligência artificial generativa, em seu estado atual de desenvolvimento, não satisfaz, por si só, os requisitos de confiabilidade epistêmica que o processo penal exige para a produção de conhecimento sobre fatos. O STJ ofereceu ao sistema jurídico brasileiro uma chave analítica importante, a distinção entre legalidade e confiabilidade, que permitirá decisões mais rigorosas sobre admissibilidade de provas tecnológicas. Fica, contudo, a missão de construir um marco normativo que regule o fenómeno de forma abrangente, antes que a multiplicação de casos similares sobrecarregue o sistema judicial com questões que a lei ainda não endereçou.
Este artigo foi elaborado com apoio de inteligência artificial generativa como ferramenta de assistência à redação. O conteúdo foi revisado e validado antes da publicação. As análises e opiniões expressas são de responsabilidade do autor e não constituem aconselhamento jurídico.
whats_your_reaction
like
0
dislike
0
love
0
funny
0
wow
0
sad
0
angry
0




Comentários (0)