Crimes digitais e inteligência artificial no direito penal brasileiro: entre a inovação e os limites regulatórios
O avanço da IA generativa e das deepfakes desafia o ordenamento penal brasileiro, que responde com instrumentos existentes e novas causas de aumento de pena, mas ainda sem um marco regulatório específico para a tecnologia.
A expansão dos crimes digitais e o novo cenário tecnológico
A digitalização acelerada das relações sociais transformou profundamente o panorama da criminalidade no Brasil. Crimes cibernéticos, antes limitados a fraudes bancárias pontuais, hoje envolvem redes criminosas organizadas que operam em escala global, com técnicas cada vez mais sofisticadas com o auxílio da inteligência artificial. Ataques de ransomware a empresas e órgãos públicos, golpes financeiros elaborados com deepfakes, vazamentos massivos de dados pessoais e a utilização de IA para fabricar evidências falsas passaram a integrar o cotidiano das autoridades investigativas e do sistema de justiça penal.
Segundo dados mencionados por especialistas da área, o volume de crimes praticados com uso de tecnologia digital cresceu de forma expressiva nos últimos anos, acompanhando a expansão do acesso à internet e a popularização de ferramentas de inteligência artificial generativa. Essa realidade impõe ao direito penal brasileiro o desafio de responder a condutas que, em muitos casos, não estavam previstas pelo legislador quando da elaboração dos tipos penais vigentes. A velocidade da inovação tecnológica supera, com frequência, a capacidade de adaptação das normas penais, gerando zonas de incerteza quanto à tipicidade, à prova e à responsabilidade penal.
A prova digital como peça central do processo penal contemporâneo
Desde 2025, a chamada prova digital passou a ocupar lugar central nas investigações e nas decisões judiciais em matéria penal. A quebra de sigilo de dados em dispositivos eletrônicos, armazenamento em nuvem e aplicativos de mensagens tornou-se a principal forma de produção de prova durante as investigações, sustentando acusações e fundamentando condenações em processos por crimes que vão desde estelionatos até organizações criminosas transnacionais.
O tema foi amplamente debatido pela doutrina processual penal ao longo de 2025 e segue como prioridade na agenda de 2026. Especialistas enfatizam que a compreensão adequada da prova digital exige conhecimentos técnicos que, tradicionalmente, não fazem parte da formação de advogados, promotores e juízes. A chamada cadeia de custódia digital, isto é, a documentação do trajeto percorrido pela evidência digital desde sua coleta até sua apresentação em juízo, tornou-se requisito essencial para a validade da prova. Falhas nesse processo podem gerar nulidades, mas a aplicação desse conceito ao ambiente digital ainda carece de consolidação jurisprudencial.
O ordenamento penal brasileiro diante das deepfakes e da manipulação de imagens
A evolução tecnológica que permite a criação de vídeos e imagens sintéticas altamente realistas, conhecidas como deepfakes, colocou o direito penal brasileiro diante de um desafio regulatório significativo. Até 2025, o ordenamento dispunha de instrumentos limitados para alcançar a manipulação de imagem e som praticada sem o consentimento da vítima. A pornografia de vingança, tipificada na Lei 13.718 de 2018, cobria situações em que imagens íntimas eram compartilhadas, mas a criação artificial de conteúdo sexual não consensual com base em imagens legítimas de pessoas reais não tinha tratamento penal específico e inequívoco.
Nesse contexto, a Lei 15.123, de 24 de abril de 2025, representou um avanço pontual ao estabelecer causa de aumento de pena para o crime de violência psicológica contra a mulher quando praticado com o uso de inteligência artificial ou qualquer outro recurso tecnológico que altere imagem ou som da vítima. A mudança alterou o artigo 147-B do Código Penal, aumentando a pena pela metade quando a conduta envolver manipulação de imagem ou som por meio de IA. Trata-se, porém, de uma alteração limitada: restringe-se ao crime de violência psicológica contra a mulher e não cria um tipo penal específico para a criação e a disseminação de deepfakes de natureza sexual ou fraudulenta em geral.
Os limites da resposta penal e a lacuna regulatória
A resposta do direito penal brasileiro às deepfakes ainda é fragmentada e insuficiente para cobrir toda a gama de situações prejudiciais criadas por essa tecnologia. Além da violência psicológica contra a mulher, a manipulação de imagem e som pode servir a extorsão, a fraudes financeiras, a ataques políticos e à difamação de pessoas públicas, condutas que nem sempre encontram tipificação adequada nos delitos tradicionais. A jurisprudência dos tribunais superiores ainda está em fase de consolidação no que se refere à aplicação analógica de tipos penais existentes a casos envolvendo deepfakes.
Há, ainda, uma distinção relevante a ser feita entre a produção de deepfakes, a sua distribuição e o seu compartilhamento. Cada uma dessas condutas pode despertar ilicitude penal diversa, a depender do resultado concretamente produzido e do dano experimentado pela vítima. A ausência de um marco regulatório específico para a inteligência artificial no Brasil, com diretrizes claras sobre responsabilidade civil e penal, mantém incertezas tanto para investigadores quanto para defensores e julgadores.
A resolução CNJ 615 e a governança da IA no Poder Judiciário
Enquanto o Legislativo permanece sem um projeto de lei aprovado para regulação abrangente da inteligência artificial, o Conselho Nacional de Justiça editou a Resolução 615, de 11 de março de 2025, estabelecendo diretrizes para o desenvolvimento, a governança, a auditoria, o monitoramento e o uso responsável de soluções de IA no âmbito do Poder Judiciário. O normativo representa o esforço regulatório mais avançado até agora no plano judicial e serve como referência para tribunais de todo o país.
A resolução reafirma o caráter meramente auxiliar da IA na atividade jurisdicional, vedando que sistemas automatizados tomem decisões judiciais de forma autônoma. Estabelece requisitos de transparência, com obrigação de fundamentação adequada quando houver apoio de ferramentas de inteligência artificial no processo decisório. Determina também a existência de supervisão humana e mecanismos de controle que permitam ao Magistrado compreender e revisar, quando necessário, os resultados produzidos por esses sistemas.
Entre as iniciativas judiciais que já utilizam IA, destacam-se o Projeto Victor, do Supremo Tribunal Federal, voltado à triagem de recursos extraordinários com base em técnicas de processamento automatizado de textos jurídicos, e o STJ Logos, queauxilia na análise de processos e na elaboração de peças decisórias. Esses sistemas evidenciam a incorporação progressiva da tecnologia, mas também geram preocupações quanto a possíveis vieses algorítmicos e à ausência de responsabilização quando a decisão final é tomada pelo juiz humano com apoio de uma ferramenta que pode conter erros ou imprecisões.
Os riscos do uso de IA generativa na produção de peças jurídicas
Um dos problemas documentados pela doutrina é o fenômeno conhecido como alucinação de modelos de linguagem, em que sistemas de IA generativa produzem informações falsas com aparência de verdade, incluindo citações de jurisprudência inexistente, referência a precedentes inventados e apresentação de dados estatísticos incorretos. Casos de advogados que apresentaram em juízo jurisprudência fabricada por chatbots foram relatados em diferentes países e também no Brasil, gerando prejuízo à parte e risco de sanções processuais.
A disciplina ética e deontológica da advocacia ainda não conta com regras específicas para o uso de ferramentas de IA na produção de peças profissionais. A Ordem dos Advogados do Brasil não editou, até o momento, normativo específico sobre o tema, embora a questão tenha sido discutida em fóruns e eventos da classe. A recomendação doutrinária é no sentido de que o advogado nunca utilize resultado de sistemas de IA sem verificação independente das informações produzidas, especialmente quando se tratar de dados numéricos, decisões judiciais ou dispositivos legais.
Contrapontos, críticas e limites da análise
A análise do direito penal frente à tecnologia de IA deve reconhecer limites importantes. Primeiro, há uma lacuna de dados confiáveis sobre a incidência real de crimes cometidos com uso de deepfakes no Brasil, o que dificulta a avaliação do impacto efetivo das novas normas e a calibragem de políticas criminais. Segundo, a resposta penal, por sua natureza subsidiária, não é capaz, sozinha, de resolver a questão da manipulação digital de imagens, que demanda também instrumentos de regulação administrativa, educação digital e responsabilização de plataformas.
Terceiro, a própria distinção entre uso legítimo e uso criminoso de tecnologias de IA generativa nem sempre é clara. Ferramentas de edição de imagem e vídeo que utilizam algoritmos de aprendizado de máquina têm aplicações lícitas em cinema, publicidade, educação e arte. Uma regulação penal excessivamente ampla corre o risco de alcançar condutas que não deveriam ser criminalizadas, comprometendo a liberdade de expressão e a inovação tecnológica. O equilíbrio entre proteção de direitos e promoção de avanços tecnológicos permanece como desafio central para legisladores e aplicadores do direito.
Cenários e síntese
O cenário mais provável para os próximos anos é de continuidade na utilização de instrumentos penais existentes, com aplicação analógica e interpretação extensiva de tipos penais tradicionais a novas modalidades de crimes digitais, enquanto um marco regulatório específico para IA no Brasil permanece em discussão no Congresso Nacional. O PL 2.338, de 2023, que propõe a instituição de um quadro normativo baseado em risco, ainda não foi aprovado e pode sofrer alterações significativas antes de sua eventual sanção.
A curto prazo, a aplicação da Lei 15.123 de 2025 e da Resolução CNJ 615 de 2025 deve ser acompanhada de perto por operadores jurídicos, para que se possa avaliar seu efetivo alcance e identificar lacunas que exijam novos ajustes legislativos ou normativos. A formação de profissionais do direito em competências digitais deixa de ser um diferencial e passa a ser requisito essencial para o exercício adequado da advocacia, da promotoria e da magistratura na era da inteligência artificial.
whats_your_reaction
like
0
dislike
0
love
0
funny
0
wow
0
sad
0
angry
0





Comentários (0)