Welcome!

Unlock your personalized experience.
Sign Up

STJ estabelece precedente e veta uso de inteligência artificial como prova em processo penal no Brasil

Pela primeira vez, o Superior Tribunal de Justiça barrou um relatório produzido por IA generativa em ação penal. Decisão da Quinta Turma destaca risco de "alucinação" dos sistemas e exige confirmação por peritos humanos, criando precedente para casos futuros.

April 30, 2026 - 21:57
updated: 2 Dias ago
0 2
STJ estabelece precedente e veta uso de inteligência artificial como prova em processo penal no Brasil

STJ decide pela primeira vez sobre uso de IA generativa como prova penal

A Quinta Turma do Superior Tribunal de Justiça (STJ) julgou, em abril de 2026, o primeiro caso brasileiro em que um relatório produzido por ferramenta de inteligência artificial generativa foi usado como principal evidência em um processo penal. Por unanimidade, os ministros rejeitaram o documento e determinaram sua exclusão dos autos, estabelecendo um precedente histórico para a Justiça brasileira.

O caso envolve uma acusação de injúria racial supostamente praticada pelo vice-prefeito de São José do Rio Preto (SP), Fábio Marcondes, contra um segurança do Palmeiras durante uma partida de futebol em fevereiro de 2025. O Ministério Público de São Paulo ofereceu a denúncia com base em um relatório gerado por ferramentas de IA — os sistemas Gemini e Perplexity — que teriam identificado a palavra ofensiva em um vídeo da discussão.

O que pesou na decisão do tribunal

Segundo o relator, ministro Reynaldo Soares da Fonseca, o problema central não estava na legalidade da obtenção do relatório nem em suposta violação à cadeia de custódia da prova. A questão central era a confiabilidade do próprio documento.

Em seu voto, Fonseca alertou para o fenômeno conhecido como "alucinação" em sistemas de IA generativa — a capacidade desses modelos de apresentar informações imprecisas, irreais ou fabricadas com aparência de fidedignidade. "Um dos riscos inerentes à utilização da inteligência artificial generativa é a alucinação, que consiste na apresentação de informações imprecisas, irreais ou fabricadas, porém com aparência de fidedignidade", declarou o ministro.

Outro fator decisivo foi o laudo pericial oficial, elaborado pelo Instituto de Criminalística. Com base em análise técnica de fonética e acústica, os peritos não identificaram traços articulatórios compatíveis com o termo citado na acusação — conclusão oposta à do relatório de IA.

IA generativa: probabilidade, não certeza

O ministro também enfatizou que sistemas de IA generativa operam com base em padrões estatísticos e probabilidades, e não em verificação factual. Isso significa que suas respostas — mesmo quando soam precisas — podem conter distorções ou fabricação de dados sem que o usuário perceba.

A decisão abriu precedente para que advogados de defesa passem a questionar, com base jurídica mais sólida, qualquer prova apresentada com origem em ferramentas de IA. Especialistas em direito penal e tecnologia apontam que o julgamento deve acelerar o debate sobre a necessidade de regras claras para o uso de evidências digitais baseadas em inteligência artificial.

Legislação em trâmite pode definir próximos passos

Paralelamente ao julgamento, o Projeto de Lei 2338/2023 — que estabelece o Marco Legal da Inteligência Artificial no Brasil — tramita no Congresso Nacional e avança em direção à aprovação. O texto já passou pelo Senado Federal e aguarda apreciação na Câmara dos Deputados, com expectativa de implementação plena em 2026.

Entre os pontos previstos no PL, estão princípios de transparência e explicabilidade para sistemas de IA, além de regras específicas para sistemas de alto impacto — o que inclui decisões que afetam a liberdade dos cidadãos no âmbito penal. O CGI.br (Comitê Gestor da Internet no Brasil) defende que a regulamentação adote um modelo baseado em classificação de risco, para equilibrar inovação e proteção de direitos fundamentais.

O que a decisão significa na prática

Para profissionais do Direito, o precedente da Quinta Turma reforça que IA generativa não substitui o trabalho pericial humano em contextos judiciais. Relatórios produzidos por chatbots ou modelos de linguagem podem servir como ponto de partida para investigações, mas não têm validade probatória autónoma enquanto não houver protocolo técnico de verificação e certificação.

Também sinaliza que advogados passaram a ter argumento robusto para impugnar provas geradas exclusivamente por IA sem validação pericial. Para empresas e órgãos públicos que utilizam ferramentas de inteligência artificial em investigações, o julgamento exige revisão de processos e maior rigor na documentação de métodos usados na produção de evidências digitais.

whats_your_reaction

like like 0
dislike dislike 0
love love 0
funny funny 0
wow wow 0
sad sad 0
angry angry 0

Comentários (0)

User