Welcome!

Unlock your personalized experience.
Sign Up

Deepfakes e violência de gênero: o que muda com a Lei 15.123/2025 no Direito Penal brasileiro

A nova lei que agrava penas para violência psicológica contra a mulher com uso de inteligência artificial é um marco, mas enfrenta desafios práticos de investigação, prova e estruturação do sistema de justiça criminal.

May 02, 2026 - 13:05
0 0
Deepfakes e violência de gênero: o que muda com a Lei 15.123/2025 no Direito Penal brasileiro

O que mudou na legislação brasileira

Em 24 de abril de 2025, o presidente Luiz Inácio Lula da Silva sancionou a Lei nº 15.123, que alterou o artigo 147-B do Código Penal para criar uma causa de aumento de pena quando o crime de violência psicológica contra a mulher é cometido com o uso de inteligência artificial ou qualquer outro recurso tecnológico que altere imagem ou som da vítima. A pena de reclusão de seis meses a dois anos, acrescida de multa, passa a ser aumentada em metade quando o delito envolve deepfakes, falsificações de voz ou outras manipulações digitais. A autoria da proposta é da Deputada Jandira Feghali, e a relatoria no Senado ficou com a Senatora Daniella Ribeiro. A norma entrou em vigor imediatamente após sua publicação no Diário Oficial da União, no dia 25 de abril de 2025.

A violência psicológica contra a mulher, prevista no artigo 147-B do Código Penal desde 2021, abrange condutas que causem dano emocional, prejudiquem o pleno desenvolvimento ou visem degradar ou controlar ações, comportamentos, crenças e decisões da vítima. Até a edição da nova lei, o meio utilizado para praticar esse crime não influía na dosimetria da pena. Agora, o uso de inteligência artificial para fabricar ou manipular imagem e voz da vítima constitui circunstância agravante específica, reconhecendo o acréscimo de desvalor presente na conduta.

O que são deepfakes e por que preocupam o legislador

Deepfakes são vídeos, imagens ou áudios manipulados por inteligência artificial que fazem parecer que alguém disse ou fez algo que nunca ocorreu. A tecnologia por trás dessas ferramentas permite substituir rostos, clonar vozes e produzir conteúdos sintéticos com aparência de autenticidade. No contexto da violência de gênero, deepfakes são utilizadas para criar pornografia não consensual, simular ameaças, difamar mulheres no ambiente profissional ou pessoal e exercer controle e intimidação em relacionamentos abusivos.

Uma pesquisa da ONU Mulheres, citada pela Organização das Nações Unidas em março de 2026, indica que 98% de todos os vídeos deepfake encontrados online são compostos por imagens pornográficas não consensuais, e 99% dessas imagens retratam mulheres. O fenômeno não se limita a celebridades ou figuras públicas: qualquer mulher pode tornar-se alvo, independentemente de sua posição social ou visibilidade. Estima-se que a prevalência de vídeos deepfake era 550% maior em 2023 do que em 2019, e as ferramentas para produzi-los estão amplamente disponíveis, muitas vezes gratuitas e com baixo nível técnico.

Contexto histórico e regulatório dos crimes digitais no Brasil

A legislação brasileira sobre crimes digitais evoluiu de forma fragmentada ao longo das últimas décadas, acompanhando frequentemente com atraso o avanço das tecnologias de informação e comunicação. O primeiro marco relevante foi a Lei nº 12.737/2012, conhecida como Lei Carolina Dieckmann, que tipificou a invasão de dispositivo informático como crime autônomo, além de criminalizar a falsificação de cartões e documentos eletrônicos. A norma surgiu como resposta à dificuldade de tipificar penalmente condutas cometidas no ambiente virtual com base apenas nos tipos penais tradicionais.

Antes disso, o Marco Civil da Internet (Lei nº 12.965/2014) estabeleceu princípios e garantias para o uso da rede no país, mas não continha normas penais materiais. A Lei Geral de Proteção de Dados (Lei nº 13.709/2018) tratou da proteção de dados pessoais em múltiplas esferas, incluindo a responsabilidade civil e administrativa, mas também não criou tipos penais específicos. Em 2021, a Lei nº 14.155/2021 tornou mais graves os crimes de violação de dispositivo informático, furto e estelionato cometidos mediante uso de meios eletrônicos, ampliando o rigor punitivo para fraudes digitais.

A lacuna que a Lei 15.123/2025 veio preencher

A inovação central da Lei 15.123/2025 está em reconhecer formalmente que o meio empregado na violência psicológica contra a mulher possui gravidade diferenciada quando envolve manipulação tecnológica. Até então, a produção de deepfakes eróticos ou difamatórios podia, no máximo, ser enquadrada em tipos penais genéricos como difamação, injúria ou ameaça, sem considerar a especificidade do instrumento utilizado. A nova lei preenche essa lacuna ao criar uma causa de aumento de pena vinculada ao uso de inteligência artificial, alinhando o ordenamento jurídico brasileiro a compromissos internacionais como a Convenção de Belém do Pará, que impõe aos Estados o dever de prevenir, punir e erradicar todas as formas de violência contra a mulher, inclusive no espaço digital.

A norma também dialoga com legislações de outros países. Nos Estados Unidos, autores de deepfakes têm 48 horas para retirar o conteúdo da internet após notificação. O Reino Unido, por meio da Lei de Segurança Online, proíbe o compartilhamento de imagens explícitas manipuladas digitalmente. A União Europeia, com sua Lei de Inteligência Artificial, impõe obrigações de transparência em relação a deepfakes. O Brasil, com a Lei 15.123/2025, ingressa nesse grupo de países que começaram a enfrentar o problema por via penal.

Dados, evidências e o que os números revelam

Levantamento da organização SaferNet Brasil, divulgado em fevereiro de 2026 durante o Dia da Internet Segura, identificou 173 vítimas de deepfakes sexuais em instituições de ensino públicas e privadas de dez estados brasileiros. Todas as vítimas mapeadas são mulheres, incluindo alunas e professoras. O estado de São Paulo lidera o número de ocorrências, com 51 vítimas, seguido por Mato Grosso, com 30, Pernambuco, com 30, e Rio de Janeiro, com 20. O levantamento também identificou 60 autores dos crimes. A pesquisa foi realizada a partir do monitoramento de notícias e da análise de conteúdos reportados à Central Nacional de Denúncias de Crimes Cibernéticos, operada pela SaferNet desde 2023.

Desde 2023, a Central de Denúncias recebeu 264 links relacionados a deepfakes sexuais não consentidos e materiais artificiais de abuso sexual infantil. Desses, 125 continham imagens reais de abuso sexual infantil, e 8% do total de URLs analisadas continham conteúdo artificial de abuso e exploração sexual infantil. A operação dessas redes criminosas se apoia em três pilares identificados pela SaferNet: bots de notificação que enviam alertas automatizados sobre novos conteúdos, plataformas de mensagens criptografadas como o Telegram e fóruns ocultos na dark web.

O que os dados ainda não respondem

As estatísticas disponíveis oferecem apenas uma radiografia parcial do problema. A subnotificação é expressiva, pois muitas vítimas desconhecem que foram alvo de manipulação digital, não sabem como denunciar ou temem a revitimização ao procurar as autoridades. Além disso, a ausência de estrutura técnica nos órgãos investigadores para identificar deepfakes e rastrear a origem dos conteúdos dificulta a apuração e a produção de provas. Não existe, até o momento, um cadastro nacional unificado de casos envolvendo deepfakes, o que impede uma análise precisa da dimensão real do fenômeno no Brasil.

Impactos práticos e desafios na aplicação da lei

A aplicação da Lei 15.123/2025 enfrenta obstáculos concretos que vão além da mera vontade legislativa. A apuração de crimes envolvendo deepfakes exige recursos técnicos sofisticados, incluindo perícia em áudio e vídeo para verificar a autenticidade ou falsidade das evidências digitais. Contudo, boa parte dos órgãos investigadores no Brasil especialmente em municípios menores carece de equipamentos e profissionais especializados para realizar esse tipo de análise. A necessidade de comprovação pericial da manipulação digital contrasta com a velocidade com que os conteúdos são criados e disseminados, muitas vezes antes mesmo de a vítima tomar conhecimento do ocorrido.

A questão da autoria também representa um desafio significativo. Deepfakes podem ser produzidas a partir de fotos e dados disponíveis em redes sociais públicas, sem que a vítima tenha fornecido qualquer consentimento. Rastrear quem criou e compartilhou o conteúdo falso exige investigação digital que frequentemente atravessa fronteiras jurisdicionais e envolve múltiplas plataformas, algumas delas sediadas no exterior e não submetidas à jurisdição brasileira. A identificação do responsável pela criação do deepfake pode ser virtualmente impossível quando o conteúdo é compartilhado de forma anônima ou por meio de redes criptografadas.

Quem assume os custos e riscos

Além do autor direto do crime, discute-se a responsabilidade das plataformas digitais que hospedam e compartilham conteúdos deepfake. A Lei 15.123/2025 não trata diretamente dessa questão, mas a interpretação sistemática sugere que plataformas que descumprem deveres de moderação ou ignoram ordens judiciais de remoção podem responder civil e administrativamente. A responsabilização em cadeia do criador do deepfake ao compartilhador e à plataforma permanece como um campo aberto para a jurisprudência brasileira, especialmente considerando o equilíbrio entre liberdade de expressão e proteção da dignidade da vítima.

Do lado da vítima, os custos emocionais, psicológicos e reputacionais são suportados majoritariamente de forma individual. O sistema de justiça criminal, mesmo com a nova lei, não oferece mecanismos eficazes de remoção rápida do conteúdo uma vez que ele se espalhou. Uma vez publicado, o material sintético pode ser replicado infinitamente, salvo em dispositivos privados e distribuído em diversas plataformas, tornando a remoção completa praticamente impossível. Esse descompasso entre a dinâmica do crime digital e a velocidade da resposta institucional expõe as vítimas a danos prolongados e de difícil reparação.

Contrapontos, críticas e limites da análise

A principal crítica à Lei 15.123/2025 sustenta que o aumento de penas não resolve, por si só, os problemas estruturais que dificultam a persecução penal de crimes digitais. Especialistas em direito penal e processo penal alertam que o expansionismo punitivo pode criar uma ilusão de eficácia, transformando a norma em instrumento simbólico sem aplicabilidade prática. Aury Lopes Jr., autor de referência em direito processual penal, adverte que não se combate a falência das instituições com o incremento da resposta penal, sendo essencial que alterações legislativas estejam lastreadas em políticas criminais coerentes e acompanhadas de estrutura adequada para investigação.

Gustavo Badaró, outro nome de destaque na área, pondera que a eficácia do direito penal deve ser aferida não apenas pela gravidade abstrata da sanção, mas sobretudo pela sua aplicabilidade concreta e pela observância das garantias processuais do acusado. A causa de aumento de pena criada pela Lei 15.123/2025 pode enfrentar dificuldades probatórias, já que demonstrar que o crime foi cometido com uso de inteligência artificial exige complexidade técnica que nem sempre estará disponível nos autos. O risco é que a qualificadora seja invocada de forma imprecisa, gerando insegurança jurídica e possibilitando aplicações arbitrárias da lei penal.

Os limites do direito penal frente à tecnologia

Há ainda a questão da imprecisão técnica na redação da lei. A norma menciona inteligência artificial ou qualquer outro recurso tecnológico que altere imagem ou som da vítima, expressão que pode ensejar interpretações excessivamente amplas. Uma simples manipulação de foto por filtros de redes sociais poderia, em tese, ser enquadrada na previsão legal? A ausência de definição técnica detalhada deixa margem para discussões sobre o alcance do tipo penal aumentado, exigindo que operadores do direito promotores, defensores, advogados e magistrados desenvolvam compreensão uniforme sobre o que realmente constitui o agravante. Esse trabalho hermenêutico será fundamental para evitar tanto a impunidade quanto a criminalização excessiva de condutas que não justificam o incremento punitivo pretendido pelo legislador.

Cenários e síntese

A Lei 15.123/2025 representa um avanço relevante no reconhecimento jurídico da especificidade da violência digital de gênero e na proteção de mulheres contra manipulações tecnológicas que visam humilhar, controlar ou silenciar. O Brasil se junta a um grupo de países que começaram a enfrentar o problema por via legislativa, sinalizando para a sociedade e para a comunidade internacional o compromisso com a atualização do ordenamento penal frente aos desafios da era digital.

Contudo, o sucesso da norma dependerá de investimentos concretos em estrutura investigativa, capacitação de operadores do direito, desenvolvimento de protocolos periciais para análise de deepfakes e criação de mecanismos ágeis de remoção de conteúdo. A resposta penal isolada, sem suporte de políticas públicas integradas de prevenção, educação digital e responsabilização das plataformas, tende a ficar aquém do efeito protetivo almejado. O cenário mais provável é de judicialização crescente dos casos envolvendo deepfakes, com formação de jurisprudência gradual sobre os contornos da qualificadora, ao mesmo tempo em que a realidade tecnológica continua a evoluir em velocidade superior à capacidade de adaptação das instituições.

O desafio de longo prazo para o direito penal brasileiro não é apenas atualizar tipos penais e causas de aumento de pena, mas construir uma política criminal que seja verdadeiramente eficaz na proteção dos direitos fundamentais no ambiente digital. Equilibrar o imperativo de proteção com o respeito aos limites do poder punitivo, evitando respostas meramente simbólicas e respeitando as garantias próprias de um Estado democrático de Direito, é a síntese do que se espera dos operadores do direito e dos formuladores de políticas públicas nos próximos anos. Somente com esse equilíbrio será possível transformar a inovação legislativa em proteção real para as mulheres brasileiras vítimas de violência tecnológica.

whats_your_reaction

like like 0
dislike dislike 0
love love 0
funny funny 0
wow wow 0
sad sad 0
angry angry 0

Comentários (0)

User