Deepfake nas Eleições do Brasil: Riscos, Legislação e Como se Proteger

Entenda os riscos de deepfake nas eleições do Brasil, a legislação vigente e como proteger sua campanha contra manipulações.

EA
Equipe AgenzAI
· · 12 min de leitura
Segurança digital e proteção contra deepfakes nas eleições

Deepfake nas eleições do Brasil: a ameaça que ninguém pode mais ignorar

Vamos direto ao ponto. Se você trabalha com campanha eleitoral no Brasil e ainda não parou pra pensar seriamente em deepfakes, está atrasado. Não é exagero. Em 2024, vimos vídeos fabricados de candidatos circulando em grupos de WhatsApp como se fossem notícia de jornal. Áudios sintéticos imitando a voz de lideranças políticas chegaram a comunidades inteiras antes que qualquer verificação fosse possível. O estrago foi real, mensurável e, em muitos casos, irreversível.

A tecnologia por trás dos deepfakes evoluiu de forma assustadora nos últimos dois anos. O que antes exigia equipamentos caros e conhecimento técnico avançado agora roda em um notebook comum. Ferramentas de IA generativa estão disponíveis de graça na internet. Qualquer pessoa minimamente motivada consegue produzir um vídeo falso convincente em poucas horas.

Para as eleições de 2026, o cenário é ainda mais preocupante. A qualidade dos deepfakes melhorou. O custo de produção caiu. E o principal canal de distribuição política no Brasil, o WhatsApp, continua sendo um ambiente onde a verificação de conteúdo é praticamente impossível em tempo real.

Como deepfakes funcionam: vídeo, áudio e imagem

Pra entender a ameaça, vale entender a tecnologia por trás. Deepfakes são conteúdos sintéticos gerados por inteligência artificial, e eles se dividem em três categorias principais no contexto eleitoral.

Deepfakes de vídeo

Essa é a modalidade mais conhecida. Redes neurais generativas (GANs) e modelos de difusão conseguem substituir o rosto de uma pessoa pelo de outra em vídeos, mantendo expressões faciais e movimentos labiais sincronizados com o áudio. O resultado engana. Não estamos falando de montagens grosseiras. Estamos falando de vídeos onde até profissionais de audiovisual têm dificuldade de identificar a manipulação à primeira vista.

Em 2024, um vídeo deepfake de um candidato a prefeito em Minas Gerais circulou por três dias antes de ser desmentido. O conteúdo simulava o candidato admitindo envolvimento em esquemas de corrupção. Quando a campanha conseguiu provar que era falso, milhares de pessoas já tinham assistido, compartilhado e formado opinião.

Deepfakes de áudio (voice cloning)

Essa é, na minha opinião, a modalidade mais perigosa no contexto brasileiro. E o motivo é simples: áudios são o formato preferido de comunicação no WhatsApp. Brasileiro manda áudio pra tudo. E com apenas alguns minutos de gravação real de uma pessoa, algoritmos de clonagem de voz conseguem gerar falas sintéticas praticamente indistinguíveis da voz original.

Pense no seguinte cenário. Um áudio “vazado” de um candidato falando algo comprometedor começa a circular em grupos de WhatsApp na periferia de uma grande cidade, numa sexta-feira à noite, faltando dois dias pra eleição. Como você prova que é falso? Como você alcança as mesmas pessoas que ouviram o áudio original? A resposta honesta é: na maioria dos casos, você não consegue. Pelo menos não a tempo.

Deepfakes de imagem

Fotos manipuladas que colocam candidatos em situações comprometedoras. Reuniões que nunca aconteceram. Locais que nunca visitaram. Gestos que nunca fizeram. Documentos forjados com aparência de autenticidade. Com ferramentas atuais de IA generativa, criar uma foto falsa convincente leva minutos.

O perigo real não está só na qualidade técnica do deepfake. Está no contexto de distribuição. O Brasil é o segundo maior mercado do WhatsApp no mundo. A política brasileira vive dentro desses grupos. Um deepfake compartilhado na hora certa, no grupo certo, pode mudar o resultado de uma eleição local antes que qualquer mecanismo de defesa seja acionado.

Por que o WhatsApp torna tudo mais difícil

Vale aprofundar esse ponto porque ele é central pra entender o risco no Brasil. Em outros países, deepfakes eleitorais circulam principalmente em redes sociais abertas como Twitter/X, Facebook ou YouTube. Nesses ambientes, a moderação de conteúdo (mesmo sendo imperfeita) existe. Ferramentas de fact-checking conseguem atuar. O conteúdo é público e rastreável.

No Brasil, a arena política principal é o WhatsApp. E o WhatsApp tem criptografia de ponta a ponta. Isso significa que ninguém, nem a própria Meta, consegue ver o conteúdo das mensagens. Não existe moderação automatizada. Não existe como rastrear a origem de um deepfake dentro da plataforma. Quando um áudio falso viraliza em centenas de grupos simultaneamente, a campanha afetada muitas vezes só descobre horas ou dias depois, através de apoiadores que reportam o conteúdo.

É por isso que campanhas sérias estão investindo em plataformas como a AgenzAi, que centralizam a comunicação via WhatsApp com rastreabilidade total. Quando toda a comunicação oficial da campanha passa por um sistema com registro completo de cada interação, fica muito mais fácil demonstrar o que é autêntico e o que é fabricado.

Legislação brasileira contra deepfakes eleitorais

O Brasil, pra ser justo, foi um dos países que mais avançou na regulamentação. O arcabouço legal existe e é robusto. O problema, como sempre, é a velocidade: a lei precisa ser aplicada em tempo real durante uma eleição, e isso nem sempre acontece.

Resolução TSE 23.732/2024

Essa é a peça central. A resolução proíbe expressamente a criação e distribuição de conteúdo sintético que simule candidatos, lideranças partidárias ou autoridades eleitorais. A penalidade inclui multa de até R$ 50.000 e possível cassação do registro de candidatura. Não é brincadeira. Mas a resolução só pega quem é identificado, e muitos deepfakes são distribuídos de forma anônima.

Para entender como a regulamentação trata essas questões de forma mais ampla, veja nosso guia sobre regras do TSE para IA em campanhas eleitorais.

Lei 14.914/2024 (alteração da Lei das Eleições)

Criminalizou a produção e distribuição de deepfakes com finalidade eleitoral. A pena prevista é de reclusão de 1 a 5 anos, além de multa. Isso é significativo. Estamos falando de crime com pena de prisão, não apenas infração administrativa. O problema prático é provar autoria em um ambiente de mensagens criptografadas.

Código Eleitoral (art. 323)

Enquadra deepfakes como divulgação de fatos inverídicos relativos a candidatos, com pena de detenção de dois meses a um ano. É um enquadramento mais antigo, anterior à era dos deepfakes, mas que os tribunais têm aplicado por analogia.

LGPD (Lei 13.709/2018)

Ponto que muita gente esquece: o uso não autorizado da imagem e voz de uma pessoa para criar deepfakes viola direitos de personalidade e disposições da LGPD sobre dados biométricos. Voz e rosto são dados biométricos. Usar esses dados sem consentimento para treinar modelos de IA é ilegal. Essa é uma linha de argumentação jurídica que campanhas afetadas devem explorar.

Marco Civil da Internet (Lei 12.965/2014)

Obriga plataformas a removerem conteúdo mediante ordem judicial e permite identificação dos responsáveis pela publicação. Na prática, a obtenção de ordem judicial durante o período eleitoral tem sido relativamente rápida, especialmente com o núcleo especializado que o TSE criou em 2025 para detecção de deepfakes.

Casos reais: o que aconteceu em 2024

As eleições municipais de 2024 foram o primeiro teste real da ameaça de deepfakes em escala no Brasil. Alguns casos merecem atenção:

Em São Paulo, áudios sintéticos imitando candidatos à prefeitura circularam em grupos de WhatsApp de bairros da zona leste. Os áudios simulavam conversas privadas com conteúdo comprometedor. A equipe de um dos candidatos levou mais de 48 horas para identificar a origem e iniciar a resposta.

No Recife, um vídeo deepfake colocando um candidato em uma reunião com figuras ligadas ao crime organizado viralizou no Telegram. O vídeo tinha qualidade suficiente para enganar a maioria das pessoas. A campanha afetada precisou contratar uma empresa de perícia digital para produzir um laudo técnico provando a manipulação.

Em Belo Horizonte, imagens manipuladas de documentos falsificados foram usadas para sugerir irregularidades financeiras de um candidato. As imagens circularam por e-mail e WhatsApp com aparência de denúncia jornalística.

O padrão é claro: os ataques acontecem nos dias finais da campanha, quando o tempo de resposta é mínimo e o impacto eleitoral é máximo.

Comparação internacional: como outros países lidam com o problema

O Brasil não está sozinho nessa luta, mas cada país enfrenta o desafio de formas diferentes.

Nos Estados Unidos, deepfakes de candidatos à presidência circularam amplamente em 2024. A resposta legislativa foi fragmentada, com alguns estados aprovando leis próprias e nenhuma legislação federal abrangente. O Brasil está à frente nesse aspecto.

Na União Europeia, o AI Act estabeleceu obrigações de transparência para conteúdo gerado por IA, incluindo a obrigatoriedade de rotulagem. A abordagem europeia é mais ampla que a brasileira, mas menos específica para o contexto eleitoral.

Na Índia, deepfakes foram usados nas eleições de 2024 em escala massiva, com candidatos tendo suas vozes clonadas para fazer discursos em idiomas que não falavam. A regulamentação indiana ainda está muito atrás da brasileira.

A Coreia do Sul foi um dos países mais agressivos, criminalizando deepfakes eleitorais com penas de até 7 anos de prisão. O Brasil segue uma linha parecida, com a vantagem de ter o TSE como órgão centralizado de fiscalização.

Como proteger sua campanha: guia prático

A proteção contra deepfake nas eleições do Brasil exige planejamento antecipado. Quando o deepfake viraliza, já é tarde pra montar uma estratégia de resposta do zero. A hora de se preparar é agora.

Monitoramento contínuo

Primeiro passo: você precisa saber que um deepfake está circulando antes que ele alcance massa crítica. Isso exige monitoramento ativo.

  • Implemente ferramentas de monitoramento de menções ao candidato em redes sociais e grupos de WhatsApp
  • Use análise de sentimento do eleitor para detectar mudanças bruscas de percepção que podem indicar circulação de conteúdo manipulado
  • Configure alertas para detecção de conteúdo viral envolvendo o candidato
  • Monitore plataformas de IA generativa e fóruns onde deepfakes são compartilhados

A AgenzAi oferece dashboards de monitoramento que integram dados de múltiplos canais, permitindo que a equipe de campanha identifique anomalias de sentimento em tempo real. Essa visibilidade é essencial para ativar o protocolo de crise rapidamente.

Protocolo de resposta rápida

Ter um protocolo definido antes do início da campanha é obrigatório. Quando o deepfake aparece, você precisa agir em horas, não em dias.

  • Mantenha um banco de conteúdo autêntico do candidato (vídeos, áudios, fotos com metadados verificáveis) para contrastar rapidamente com deepfakes
  • Estabeleça canais diretos com as plataformas (WhatsApp Business API, Meta, Google) para solicitação de remoção emergencial
  • Prepare templates jurídicos para representação eleitoral e notificação extrajudicial
  • Defina uma cadeia de comando clara: quem autoriza a resposta pública, quem aciona o jurídico, quem monitora a repercussão

Educação da base eleitoral

Seus apoiadores são sua primeira linha de defesa. Eles precisam saber identificar deepfakes e reportar conteúdo suspeito.

  • Treine multiplicadores eleitorais para reconhecer sinais de manipulação
  • Crie materiais educativos simples e diretos sobre como identificar deepfakes (inconsistências nos olhos, movimentos labiais estranhos, qualidade de áudio irregular)
  • Use os canais oficiais da campanha para orientar eleitores sobre fontes confiáveis
  • Campanhas que usam a AgenzAi podem distribuir alertas automatizados via WhatsApp para toda a base de apoiadores quando um deepfake é detectado, garantindo que o desmentido chegue rápido

Autenticação de conteúdo oficial

Se todo conteúdo oficial da campanha é autenticado, fica muito mais fácil provar que um deepfake é falso.

  • Adote assinatura digital em vídeos e comunicados oficiais da campanha
  • Use marcas d’agua em todo conteúdo visual produzido pela equipe
  • Publique todo conteúdo oficial em canais verificados antes de distribuir via WhatsApp
  • Considere o uso de padrões C2PA (Coalition for Content Provenance and Authenticity) para certificação de proveniencia
  • Mantenha registro público de todo o conteúdo oficial produzido pela campanha, com timestamps verificáveis

O papel da tecnologia na defesa

A mesma inteligência artificial que cria deepfakes pode ajudar a detectá-los. Ferramentas de detecção analisam inconsistências que o olho humano não percebe: padrões de reflexo nos olhos, textura de pele em áreas específicas, frequências de áudio que a clonagem de voz não reproduz perfeitamente.

Mas a detecção sozinha não resolve. O que resolve é ter uma infraestrutura de comunicação que seja auditável e rastreável desde o início. Quando a campanha usa um agente de IA no WhatsApp integrado a uma plataforma como a AgenzAi, cada mensagem enviada tem registro completo: horário, conteúdo, destinatário, contexto. Não existe espaço para adulteração. Se alguém alegar que o candidato “disse” algo via WhatsApp, a campanha pode provar exatamente o que foi dito, quando e para quem.

O cenário de propaganda eleitoral na internet em 2026 vai ser definido pela tensão entre geração e verificação de conteúdo. As campanhas que investirem em autenticidade terão vantagem competitiva real, não apenas legal, mas de credibilidade junto ao eleitor.

Checklist de proteção contra deepfakes

Pra facilitar, aqui vai um checklist objetivo que toda campanha deveria seguir antes do início do período eleitoral:

  • Mapear todo conteúdo público do candidato que pode ser usado para treinar deepfakes (vídeos, áudios, entrevistas)
  • Definir protocolo de crise com responsáveis, prazos e fluxos de aprovação
  • Contratar ou designar equipe de monitoramento de redes e grupos
  • Preparar banco de conteúdo autêntico com metadados verificáveis
  • Implementar assinatura digital e marcas d’agua em todo conteúdo oficial
  • Treinar multiplicadores para identificação e reporte de deepfakes
  • Preparar templates jurídicos para ação imediata
  • Estabelecer canais diretos com plataformas para remoção de conteúdo
  • Adotar plataforma de comunicação com rastreabilidade (como a AgenzAi)
  • Criar materiais educativos para a base eleitoral
  • Realizar simulação de crise com a equipe completa

O futuro é agora

O deepfake nas eleições do Brasil não é uma ameaça futura. É uma ameaça presente. As eleições de 2024 já mostraram o potencial destrutivo dessa tecnologia, e 2026 vai ser pior. A tecnologia de geração de conteúdo sintético evolui mais rápido que a capacidade de detecção.

A boa notícia é que existem formas eficazes de se proteger. Monitoramento, protocolo de resposta, educação da base, autenticação de conteúdo e uso de plataformas com rastreabilidade são medidas que, combinadas, reduzem dramaticamente o risco.

A pergunta não é se sua campanha será alvo de deepfake. A pergunta é quando. E quando acontecer, a diferença entre uma crise controlada e um desastre eleitoral vai ser definida pela preparação que você fez antes.

Compartilhar

Sobre o autor

EA
Equipe AgenzAI

Time de Produto & Engenharia

A equipe AgenzAI combina expertise em inteligência artificial, engenharia de software e comunicação política para desenvolver agentes que transformam campanhas eleitorais.