Inteligência artificial nas eleições 2026: as regras do TSE e os desafios da regulação de deepfakes
O TSE aprovou em março de 2026 regras que restringem conteúdos sintéticos gerados por IA nas 72 horas antes da votação, vedam recomendação algorítmica de candidatos e impõem dever de transparência. Especialistas avaliam pontos fortes e limitações da resolução.
O que aconteceu e por que importa
Nas eleições gerais de 2026, o Brasil enfrentará pela primeira vez um processo eleitoral em que ferramentas de inteligência artificial estão amplamente disponíveis para a produção de conteúdos sintéticos em larga escala. Deepfakes de áudio e vídeo, chatbots que simulam candidatos e mensagens automatizadas personalizadas podem ser gerados e distribuídos em velocidade unprecedented, criando desafios regulatórios para os quais não há precedente na história eleitoral brasileira. O Tribunal Superior Eleitoral (TSE) respondeu a esse cenário com um conjunto de regras aprovadas em março de 2026, por meio da Resolução nº 23.755, que alterou a Resolução nº 23.610/2019.
A medida de maior repercussão foi a proibição de publicação, republicação e impulsionamento de novos conteúdos produzidos ou alterados por IA nas 72 horas que antecedem cada turno da votação e nas 24 horas posteriores ao encerramento da eleição. Essa restrição incide sobre conteúdos sintéticos novos, isto é, materiais que modifiquem imagem, voz ou manifestação de candidatas e candidatos, ou de pessoas públicas, e não abrange materiais antigos já em circulação.
Os três eixos da regulação do TSE
A resolução aprovada pelo TSE em março de 2026 estrutura-se em três eixos principais. O primeiro é a restrição temporal para conteúdos sintéticos novos, que proíbe a circulação de material fabricado ou manipulado por IA na janela de maior vulnerabilidade do processo eleitoral. O segundo eixo é o reforço de medidas de transparência e sinalização quando houver uso de IA, inclusive em chatbots e avatares, exigindo que o eleitor seja informado quando estiver interagindo com sistemas automatizados. O terceiro eixo é a criação de instrumentos de responsabilização preventiva, com exigência de planos de conformidade para provedores de internet.
Essas regras não surgiram de forma isolada. Elas são resultado de um processo que envolveu consultas abertas, audiência pública e contribuições técnicas. Segundo o TSE, o órgão recebeu 1.423 propostas de alteração às minutas apresentadas em janeiro de 2026, parte delas discutidas na audiência pública do início de fevereiro. Essa consulta ampla reflete a complexidade do tema e a dificuldade de equilibrar objetivos concorrentes: de um lado, a liberdade de expressão e o uso legítimo de tecnologias de IA; de outro, a proteção da integridade do processo eleitoral contra manipulações que podem ser estruturalmente irreversíveis.
A vedação absoluta de deepfakes e a polêmica das 72 horas
A resolução estabelece que a vedação de deepfakes é absoluta e não comporta a salvaguarda da rotulagem, mesmo com autorização do afetado. Isso significa que conteúdos sintéticos que mostram candidatas ou candidatos em situações falsas, fabricadas ou descontextualizadas são proibidos independentemente de qualquer aviso ou identificação. Essa vedação absoluta foi criticada por alguns especialistas, que sustentam que ela pode ser excessivamente ampla e conflitar com usos legítimos de IA em contextos artísticos, educacionais ou satíricos.
No caso da janela das 72 horas, a norma reconhece que, no contexto de manipulações audiovisuais feitas por IA, a capacidade racional dos eleitores fica prejudicada, e que a simples rotulagem não é suficiente para neutralizar o dano informacional. A escolha por uma vedação absoluta dentro dessa janela temporal revela um diagnóstico relevante: há momentos do processo eleitoral em que o dano informacional pode ser estruturalmente irreversível, mesmo quando o eleitor é alertado sobre o uso de IA no conteúdo.
A delimitação do que é "novo" também merece atenção. Ao excluir conteúdos antigos já em circulação, a resolução evita criar um bloqueio retroativo ou inviabilizar completamente o debate político digital. Ao mesmo tempo, concentra o foco regulatório na produção estratégica de material sintético para uso na reta final da disputa. Trata-se de um recorte que tenta equilibrar liberdade de expressão e prevenção de risco sistêmico, limitando a intervenção ao período de maior vulnerabilidade da integridade eleitoral.
A vedação de recomendação algorítmica e seus limites práticos
A resolução também vedou que provedores de IA permitam, mesmo mediante solicitação expressa de usuários, a recomendação, o ranqueamento, a sugestão ou a priorização de candidatos, campanhas, partidos, federações ou coligações. Essa vedação abrange qualquer forma de favorecimento ou desfavorecimento político eleitoral, direta ou indireta, inclusive por respostas automatizadas. A finalidade é impedir interferência algorítmica no processo de formação da decisão de voto.
Essa restrição é particularmente significativa porque aborda um problema que está no centro da economia digital contemporânea: o uso de algoritmos para personalizar experiências de informação. Em um cenário em que sistemas de IA são cada vez mais usados como fonte de informação e orientação, inclusive sobre opções eleitorais, o limite busca preservar a autonomia do eleitor e reduzir riscos de vieses, opacidade e instrumentalização.
Contudo, a eficácia dessa vedação depende de capacidade técnica que as plataformas nem sempre têm ou estão dispostas a desenvolver. Diferenciar, em tempo real, conteúdos sintéticos novos de reaproveitamento, montagens ou reedição é um desafio operacional significativo. Será necessário definir parâmetros objetivos para identificar modificação substancial de imagem, voz ou manifestação pública, e aplicar esses parâmetros de forma consistente em plataformas com milhões de usuários e bilhões de peças de conteúdo.
Os instrumentos de responsabilização e as consequências do descumprimento
Caso as normas sejam descumpridas, o conteúdo deverá ser excluído imediatamente, por iniciativa do provedor de internet ou por determinação judicial. A remoção do conteúdo não impede a aplicação da multa prevista no artigo 57-D da Lei nº 9.504/1997, que varia de 5 mil a 30 mil reais. Além disso, o descumprimento das regras configura abuso do poder político e uso indevido dos meios de comunicação social, o que acarreta a cassação do registro de candidatura ou do mandato eleitoral.
A resolução também prevê a apuração das responsabilidades nos termos do parágrafo 1º do artigo 323 do Código Eleitoral, que trata dos crimes eleitorais, além da aplicação de outras medidas relativas à irregularidade da propaganda e à ilicitude do conteúdo. Esses instrumentos de responsabilização são importantes para criar incentivos efetivos para o cumprimento das regras, mas sua eficácia depende da capacidade de monitoramento e detecção de violações em escala.
O combate à desinformação nas eleições é uma das prioridades do TSE, que, desde 2018, tem atuado para impedir a disseminação de conteúdos falsos, manipulados ou descontextualizados no processo eleitoral. Contudo, a velocidade com que novas tecnologias de IA estão se desenvolvendo supera a capacidade de adaptação dos marcos regulatórios existentes, criando uma lacuna entre as regras formalmente aprobadas e a realidade operacional das plataformas digitais.
Contrapontos, críticas e limites da análise
Uma crítica frequente às regras do TSE é que a restrição das 72 horas pode ser insuficiente para conter danos informacionais em um ambiente de alta velocidade de circulação de conteúdos. A janela de 72 horas é curta em termos de impacto potencial, e muitos conteúdos manipulados por IA podem ter circulado antes desse período e continuar tendo efeito no período restrito, mesmo que não sejam considerados "novos" pela resolução.
Além disso, a eficácia da rotulagem como instrumento de mitigação de danos é questionável por pesquisas em psicologia e comunicação política. Estudos demonstram que informações sobre a origem artificial de um conteúdo podem não reverter completamente o efeito persuasivo da mensagem, especialmente quando o conteúdo é emocionalmente envolvente. A vedação absoluta da janela de 72 horas reconhece implicitamente essa limitação da rotulagem, mas não resolve o problema para conteúdos que circulam fora dessa janela.
Outro limite importante é que a resolução não aborda diretamente o uso de IA por partidos e candidatos para análise de dados de eleitores e personalização de mensagens. O uso de ferramentas de IA para segmentação de mensagens e direcionamento de propaganda com base em perfis psicológicos é uma prática que está em expansão, mas que não é diretamente enfrentada pelas regras aprobadas. Esse tipo de uso de IA pode ser tão ou mais impactante na integridade do processo eleitoral quanto à produção de deepfakes.
Cenários e síntese
As regras aprobadas pelo TSE representam um avanço significativo na regulação do uso de IA em contextos electorais no Brasil. A vedação absoluta de deepfakes, a restrição temporal de 72 horas e a vedação de recomendação algorítmica são medidas que demonstram preocupação genuína da Justiça Eleitoral com os riscos que tecnologias de IA representam para a integridade do processo democrático. Contudo, a eficácia dessas regras depende de condições que estão além do alcance da resolução: capacidade técnica das plataformas, velocidade de detecção de violações e cooperação internacional entre reguladores.
O cenário mais provável é a continuidade da evolução das regras electorais em sintonia com o desenvolvimento de novas tecnologias de IA. O TSE demonstrou capacidade de adaptação desde 2018, e é possível que novas resoluções ou alterações sejam aprovadas para endereçar lacunas identificadas na aplicação das regras de 2026. A questão central, contudo, permanece a mesma: como regular tecnologias que evoluem mais rapidamente do que os marcos legais conseguem acompanhar, em um contexto de globalização digital que transcende fronteiras nacionais.
As eleições de 2026 serão um teste importante para a regulação eleitoral brasileira. O resultado desse teste vai informar não apenas as regras para processos electorais futuros no Brasil, mas também o debate global sobre como democracias podem responder aos desafios que tecnologias de IA representam para a integridade de processos electorais. A experiência brasileira, por seu tamanho e pela maturidade de sua Justiça Eleitoral, tem potencial de servir como referência internacional nesse debate.
Este artigo foi elaborado com apoio de inteligência artificial generativa como ferramenta de assistência à redação. O conteúdo foi revisado e validado antes da publicação. As análises e opiniões expressas são de responsabilidade do autor e não constituem aconselhamento jurídico.
whats_your_reaction
like
0
dislike
0
love
0
funny
0
wow
0
sad
0
angry
0
Comentários (0)