Welcome!

Unlock your personalized experience.
Sign Up

Inteligência artificial nas eleições de 2026: deepfakes, desinformação e os limites da resposta institucional

O Brasil se aproxima do ciclo eleitoral de 2026 com uma infraestrutura regulatória insuficiente para conter o uso de IA generativa na manipulação do debate público, e o tempo das instituições pode ser longo demais.

May 04, 2026 - 15:41
0 1
Inteligência artificial nas eleições de 2026: deepfakes, desinformação e os limites da resposta institucional

Um novo patamar de risco para as eleições brasileiras

As eleições de 2026 no Brasil ocorrem em um contexto tecnológico sem precedentes na história do país. Desde 2018, campanhas digitais, disparos em massa e boatos em aplicativos de mensagem fazem parte do cenário político. O que muda em 2026 é a incorporação acelerada da inteligência artificial generativa, que permite produzir textos, imagens, vídeos e áudios sintéticos com qualidade indistinguível, em muitos casos, de conteúdos reais. A escala e a sofisticação desses recursos colocam o processo eleitoral brasileiro diante de um desafio que vai muito além do que foi enfrentado nos ciclos anteriores.

Um levantamento realizado pela Agência Lupa, um dos principais veículos de checagem do Brasil, a partir de 1.294 checagens profissionais em pelo menos dez idiomas, mostra que 81,2% de todos os casos de desinformação que envolveram tecnologias de inteligência artificial identificados até março de 2026 surgiram apenas nos últimos dois anos. Esse dado, publicado pela Agência Brasil em abril de 2026, revela a velocidade com que a IA generativa se tornou uma ferramenta central no ecossistema da desinformação global. O crescimento do número de checagens que flagraram esse tipo de mentira foi de 160 casos em 2023 para 578 em 2025, com 205 registros já registrados até março de 2026.

O caso "Dona Maria" e a sofisticação da desinformação

Um episódio reciente sintetiza a nova dimensão do problema. Em abril de 2026, a federação formada por PT, PCdoB e PV protocolou representação no Tribunal Superior Eleitoral contra a personagem virtual chamada "Dona Maria", criada com recursos de inteligência artificial para simular uma mulher idosa e negra. O perfil acumulava centenas de milhares de seguidores em redes sociais e, segundo a representação apresentada à Justiça, divulgava conteúdos falsos e distorcidos contra o presidente Luiz Inácio Lula da Silva e figuras da esquerda, sem transparência adequada sobre a natureza sintética do perfil e dos conteúdos publicados.

Além de produzir desinformação, o perfil monetizava a audiência com publicidade, parcerias comerciais e venda de cursos sobre automação digital. Essa combinação — de manipulação política com ganho comercial — representa uma evolução em relação aos modelos anteriores de desinformação, que eram majoritariamente ideológica. O caso também evidencia a dificuldade de responsabilização: a operação por trás de perfis automatizados frequentemente envolve múltiplas camadas de intermediação, e a identificação dos responsáveis reais permanece como um dos grandes obstáculos para a aplicação de sanções efetivas.

O uso estratégico da dúvida como arma

Especialistas em desinformação alertam para um efeito que vai além da mentira isolada: a produção em escala de conteúdos falsos cria um ambiente de confusão permanente que erosiona a própria capacidade coletiva de distinguir o verdadeiro do falso. Esse fenômeno, descrito por pesquisadores como o "efeito de contaminação", faz com que, quando um conteúdo verdadeiro é publicado, ele também possa ser questionado sob o argumento de que "pode ser IA". Videos e imagens autênticos passam a ser submetidos ao mesmo escrutínio que os sintéticos, enfraquecendo o peso probatório de registros visuais que, em outros contextos, seriam considerados robustos.

Essa dinâmica já era observada antes da popularização da IA generativa, mas ganha uma dimensão nova quando a tecnologia permite produzir deepfakes cada vez mais convincentes. A pesquisadora Heloisa Massaro, do InternetLab, observa que a própria dúvida sobre o que é real ou sintético se torna uma ferramenta de disputa política: candidatos e grupos organizados podem, convenientemente, alegar que vídeos verdadeiros são deepfakes, enquanto seus adversários fazem o contrário, criando uma situação na qual a verdade factual se torna objeto de inúmerorias.

As regras do Tribunal Superior Eleitoral e seus limites

Desde 2022, o Tribunal Superior Eleitoral trabalha para atualizar seu arcabouço regulatório diante dos novos desafios tecnológicos. As resoluções aprovadas para o ciclo de 2026 proíbem deepfakes eleitorais, exigem rotulagem explícita de conteúdos sintéticos e védam que modelos de IA sugiram ou indiquem candidatos ao eleitor. Essas regras representam um avanço em relação aos marcos anteriores e demonstram que a Justiça Eleitoral reconhece a gravidade do problema.

Contudo, especialistas e organizações da sociedade civil identificam lacunas significativas nessa arquitetura regulatória. Uma pesquisa do InternetLab indica que metade dos usuários de WhatsApp no Brasil afirma já ter utilizado algum recurso de inteligência artificial no aplicativo nos meses seguintes ao lançamento da Meta IA no país, o que demonstra a velocidade com que essas tecnologias se disseminam nas plataformas mais usadas para circulação de informações políticas. Nesse ambiente, a fiscalização em tempo real é praticamente impossível: o tempo de circulação de um conteúdo enganoso nas redes sociais é medido em minutos, enquanto o tempo de processamento de uma representação judicial é medido em dias ou semanas.

Os números do desarmamento crítico do eleitorado

Dados do Comitê Gestor da Internet no Brasil (CGI.br) paintam um cenário preocupante sobre a vulnerabilidade do eleitorado. A pesquisa mostra que 41% dos usuários relatam contato diário com deepfakes, enquanto apenas 17% dos brasileiros possuem alto desempenho na identificação de conteúdos falsos ou verdadeiros. Mais alarming: um terço da população sequer considera que vale a pena verificar a veracidade das informações que recebe. Esses números revelam que a disseminação de conteúdos sintéticos ocorre em um terreno no qual grande parte da população não dispõe das ferramentas cognitivas necessárias para desconfiar criticamente do que consome.

Pesquisa separada conduzida pelo Data Privacy Brasil apurou que conteúdos políticos sintéticos circularam sem o rótulo de inteligência artificial em 73% dos posts analisados, o que indica que plataformas digitais não estão cumprindo, espontaneamente, as obrigações de transparência estabelecidas pelo próprio TSE. A experiência acumulada com outros marcos regulatórios no Brasil e no mundo sugere que a autorregulação das plataformas digitais tende a falhar na prática, e que a efetiva implementação de obrigações legais depende de mecanismos de fiscalização ativa que, no momento, ainda não estão plenamente constituídos.

Legislação, educação midiática e as lacunas da resposta brasileira

No Congresso Nacional, PLS que buscam criminalizar a criação e disseminação de deepfakes com fins eleitorais tramitam sem conclusão. O PL 2338/2023, que institui o marco legal da inteligência artificial no Brasil, está em tramitação na Câmara dos Deputados e contém disposições relevantes sobre sistemas de IA de alto risco, mas o processo legislativo brasileiro é reconhecidamente lento, e a possibilidade de que um marco legal completo e atualizado esteja vigente antes das eleições de outubro de 2026 é considerada reduzida por observadores do processo.

A ausência de um marco regulatório específico não é, contudo, um problema exclusivamente brasileiro. A Organização das Nações Unidas para a Educação, a Ciência e a Cultura (UNESCO) tem recomendado a inclusão de educação midiática nos currículos escolares como forma de imunizar populações contra a desinformação, e diversos países avançam nessa direção com velocidades diferentes. No Brasil, a inclusão efetiva de literacia midiática e digital nas redes públicas de ensino permanece incipiente e heterogênea, variando significativamente conforme o estado e o município.

A perspectiva internacional e os casos comparados

O problema não é exclusivo do Brasil. Pesquisadores e instituições internacionais documentam o uso de deepfakes em processos eleitorais em diversos países. Na esteira de conflitos armados e crises políticas em diferentes continentes, vídeos sintéticos gerados por IA já alcançaram milhões de visualizações e, em alguns casos, engañaram autoridades públicas, o que evidencia o potencial da tecnologia para influenciar percepções em larga escala. Esse cenário global torna a tarefa de regulação ainda mais complexa, pois conteúdos produzidos no exterior podem circular amplamente no Brasil sem que haja mecanismos eficazes de controle na origem.

A União Europeia avançou com o AI Act, que estabelece obrigações de transparência para sistemas de IA e cria categorias de risco, mas a aplicação efetiva desse marco a contextos eleitorais específicos ainda está em fase de implementação. Nos Estados Unidos, a resposta regulatória é fragmentada, com legislações estaduais variadas e ausência de marco federal abrangente. Essa fragmentação internacional significa que atores mal-intencionados podem, potencialmente, explorar jurisdições com regras mais brandas para produzir e disseminating conteúdos destinados a processos eleitorais em outros países.

Contrapontos e a complexidade da resposta

A narrativa sobre IA e desinformação eleitoral não é uniformemente catastrófica. Pesquisadores e defensores da tecnologia apontam que a IA generativa também pode ser usada para fins legítimos por campanhas políticas, especialmente por candidatos e partidos menores que não dispõem de recursos para produzir materiais profissionais em escala. Ferramentas de IA podem reduzir custos de produção de conteúdos informativos, facilitar o acesso a informações sobre candidatos e propostas, e auxiliar no trabalho de organizações da sociedade civil que monitoram o processo eleitoral.

Além disso, os próprios sistemas de detecção de conteúdo sintético estão em constante evolução, e a corrida tecnológica entre quem produz deepfakes e quem desenvolve ferramentas de identificação é dinâmica. É possível que, nos próximos anos, surjam soluções técnicas eficazes o suficiente para reduzir significativamente a capacidade de manipulação visual. Contudo, não há garantia de que essa corrida será vencida pelos que defendem a integridade informacional, e as assimetrias de recursos entre atores estatais, corporativos e sociais continuam sendo um fator que limita o otimismo.

A situação do WhatsApp merece atenção específica: com 99,1% dos usuários brasileiros de aplicativos de mensagem afirmando usar a plataforma, segundo dados do InternetLab, a circulação de conteúdos políticos nesse ambiente é ampla e, em grande medida, opaca. A criptografia de ponta a ponta, que é uma proteção à privacidade dos usuários, também limita a capacidade de plataformas e autoridades de monitorear a circulação de desinformação nesse ambiente, criando um dilema entre privacidade e controle que não admite solução simples.

Cenários e a estrada pela frente

O cenário mais provável para as eleições de 2026 é de convivência entre avanços regulatórios insuficientes e uma sofisticada arsenal de ferramentas de desinformação em operação. O TSE deu passos relevantes, mas sua capacidade de fiscalizar, em tempo real, a circulação de conteúdos sintéticos nas principais plataformas é estruturalmente limitada. O Congresso Nacional, se avançar legislação durante o ano, chegará tarde demais para moldar comportamentos no calor da campanha, mas pode estabelecer precedentes importantes para ciclos eleitorais futuros. As plataformas digitais, por sua vez, continuam sendo atores centrais cuya disposição para cooperar com autoridades eleitorais varia conforme seus incentivos comerciais e a pressão regulatória e reputacional que enfrentam.

A educação midiática da população é, para muitos especialistas, a intervenção com potencial transformador mais duradouro, mas seus efeitos são de longo prazo e não protegem imediatamente o ciclo eleitoral em curso. A proteção efetiva das eleições de 2026 contra a manipulação por IA generativa dependerá, em grande medida, da capacidade de resposta rápida do sistema de justiça eleitoral, da disposição das plataformas em aplicar as regras estabelecidas, e da existência de uma infraestrutura de fact-checking suficientemente robusta para operar em escala e velocidade compatíveis com a circulação de conteúdos nas redes digitais. Nenhum desses elementos está plenamente consolidado no Brasil no momento, e o tempo entre agora e o primeiro turno de outubro é curto. A incerteza sobre o resultado desse imbalance é, por si só, um dado relevante para quem acompanha a saúde da democracia brasileira.

whats_your_reaction

like like 0
dislike dislike 0
love love 0
funny funny 0
wow wow 0
sad sad 0
angry angry 0

Comentários (0)

User