IA nas Eleições 2026: O Que o TSE Permite e Como Usar com Segurança
Entenda o que o TSE permite sobre IA nas eleições 2026 e como usar inteligência artificial em campanhas com segurança jurídica.
O marco regulatório da IA nas eleições 2026
Vamos direto ao ponto: a IA nas eleições 2026 não é mais uma tendência. É realidade. E quem não entender as regras do jogo vai ficar para trás, ou pior, vai responder processo no TSE.
Pela primeira vez na história eleitoral brasileira, o Tribunal Superior Eleitoral criou um conjunto de regras específicas para disciplinar o uso de inteligência artificial em campanhas. A Resolução 23.732/2024 é o documento que todo marqueteiro, advogado eleitoral e coordenador de campanha precisa ter na cabeceira. Não é exagero. São 47 artigos que definem, com razoável clareza, o que pode e o que não pode ser feito com IA durante o período eleitoral.
O contexto para essa regulamentação é importante. Em 2022, o Brasil já viu deepfakes circulando em grupos de WhatsApp, áudios fabricados e bots automatizados simulando apoio popular. O TSE tomou nota. Em 2024, nas eleições municipais, as primeiras versões dessas regras foram testadas. Agora, para 2026, a regulamentação chegou com força total.
A lógica do TSE é clara: a tecnologia não é o problema, o uso irresponsável é. Por isso, a postura não é de proibição geral, e sim de regulação detalhada. Quem usa IA dentro das regras tem uma vantagem competitiva legítima. Quem cruza a linha, enfrenta consequências sérias.
O que diz a Resolução 23.732/2024
Vale detalhar o que a Resolução traz de mais relevante, porque muita gente fala sobre ela sem ter lido o texto.
A Resolução estabelece três categorias de uso de IA em campanhas: usos permitidos com identificação, usos permitidos com restrições e usos expressamente proibidos. Essa divisão é fundamental porque existe uma zona cinzenta que muitas campanhas vão tentar explorar, e é justamente aí que mora o perigo jurídico.
O texto exige que qualquer conteúdo gerado ou substancialmente modificado por IA contenha identificação visível e acessível. Isso vale para texto, imagem, áudio e vídeo. A Resolução usa o termo “substancialmente modificado”, o que abre espaço para interpretação. Um filtro de cor no Instagram não precisa de aviso. Mas um texto reescrito por GPT a partir de um rascunho humano, precisa? A resposta conservadora, e a mais segura, é sim.
Outro ponto central: a Resolução determina que o candidato, o partido e a coligação são solidariamente responsáveis pelo conteúdo gerado por IA. Não adianta dizer que “a IA fez sozinha”. A responsabilidade é sempre humana.
O que o TSE permite: usos legais de IA em campanha
O TSE adota uma postura de regulação, não proibição. A inteligência artificial é permitida em campanhas eleitorais, desde que observadas condições específicas.
Atendimento ao eleitor
Chatbots e agentes de IA podem responder perguntas sobre propostas, agenda e posicionamentos do candidato. É obrigatório informar ao eleitor que ele está interagindo com IA, e essa identificação deve ser clara e imediata, logo na primeira mensagem. As interações devem ser registradas e armazenáveis para eventual auditoria.
Aqui, plataformas como a AgenzAi fazem diferença real. A AgenzAi foi construída especificamente para o contexto eleitoral brasileiro, com identificação automática de IA em cada interação e registro completo de conversas. Não é um chatbot genérico adaptado para campanha. É uma ferramenta pensada de ponta a ponta para compliance com o TSE.
Geração de conteúdo
IA pode ser usada para auxiliar na criação de textos, imagens e vídeos de campanha. Todo conteúdo gerado ou substancialmente modificado por IA deve conter identificação visível. A responsabilidade pelo conteúdo é sempre do candidato e do partido, independentemente de ter sido gerado por ferramenta automatizada.
Na prática, isso significa que sua equipe pode usar IA para gerar rascunhos de posts, criar variações de peças de comunicação e até produzir roteiros de vídeos. Mas o conteúdo final precisa ter revisão humana, e a tag de identificação precisa estar lá.
Análise de dados
Ferramentas de IA podem ser usadas para análise de sentimento do eleitor e segmentação de base. O tratamento de dados deve respeitar a LGPD (Lei 13.709/2018). Dados sensíveis, como opinião política, exigem consentimento explícito do titular.
Esse é um dos usos mais poderosos e menos controversos. Analisar milhares de mensagens recebidas para entender quais temas mobilizam cada região é algo que nenhuma equipe humana consegue fazer na mesma velocidade. E é perfeitamente legal.
Para uma visão mais detalhada das regras, consulte nosso guia completo sobre regras do TSE para IA em campanhas eleitorais.
O que o TSE proíbe: as linhas vermelhas
Tão importante quanto saber o que pode é entender o que não pode. As proibições são taxativas e as penalidades são pesadas.
Deepfakes e manipulação
É proibido usar IA para criar conteúdo falso envolvendo candidatos, partidos ou instituições. Vídeos, áudios ou imagens sintéticas que simulem candidatos dizendo ou fazendo algo que não fizeram configuram crime eleitoral. O combate a deepfakes nas eleições do Brasil é uma das prioridades do TSE, que firmou parcerias com plataformas de tecnologia para identificação automatizada de conteúdo manipulado.
Impersonação de eleitores
Criar perfis falsos operados por IA para simular apoio popular é proibido. Bots que se passam por eleitores reais em redes sociais configuram infração grave. A prática pode ser enquadrada também no Código Penal (art. 307, falsa identidade).
Manipulação algorítmica
Usar IA para manipular algoritmos de plataformas, como impulsionamento artificial de conteúdo, é vedado. Técnicas de astroturfing, que simulam movimentos de base usando IA, são proibidas e rastreáveis. As plataformas de redes sociais estão obrigadas a colaborar com o TSE na identificação desses padrões.
Penalidades: o que acontece com quem descumpre
Esse é o trecho que mais interessa aos advogados eleitorais, e que deveria preocupar qualquer coordenador de campanha.
As penalidades previstas são escalonadas conforme a gravidade:
Multa: Valores de R$ 5.000 a R$ 50.000 por infração. Uso de IA sem identificação adequada gera multa na faixa inferior. Deepfakes e impersonação, na faixa superior. A multa pode ser aplicada ao candidato, ao partido e ao fornecedor de tecnologia.
Remoção de conteúdo: O TSE pode determinar a remoção imediata de conteúdo irregular. As plataformas têm prazo de 24 horas para cumprir a ordem judicial. Descumprimento gera multa diária.
Cassação do registro de candidatura: Em casos graves, especialmente envolvendo deepfakes ou manipulação massiva, o TSE pode cassar o registro do candidato. Isso pode acontecer antes ou depois da eleição.
Inelegibilidade: A depender do enquadramento, a conduta pode gerar inelegibilidade por até 8 anos, conforme a Lei da Ficha Limpa. Não é brincadeira.
Responsabilidade criminal: Além das sanções eleitorais, a criação de deepfakes pode configurar crimes como difamação, injúria e falsa identidade, com penas previstas no Código Penal e no Código Eleitoral.
O recado é direto: o TSE não vai tolerar uso irresponsável de IA. E a fiscalização em 2026 será muito mais sofisticada do que em ciclos anteriores.
A interseção com a LGPD
Um tema que muitas campanhas subestimam é a relação entre o uso de IA e a Lei Geral de Proteção de Dados. A LGPD na campanha eleitoral não é uma preocupação secundária. É central.
O ponto mais sensível: opinião política é dado sensível pela LGPD (art. 5º, II). Isso significa que qualquer tratamento de dados que revele ou infira a inclinação política do eleitor exige consentimento explícito, específico e destacado. Não basta aquele “aceito os termos” genérico.
Na prática, quando um agente de IA conversa com um eleitor via WhatsApp e o eleitor diz que apoia determinada proposta, esse dado é sensível. A campanha precisa ter base legal para armazenar e processar essa informação. Precisa informar a finalidade. Precisa permitir exclusão a pedido.
O Relatório de Impacto à Proteção de Dados Pessoais (RIPD) é obrigatório quando o tratamento envolve dados sensíveis em larga escala. Uma campanha que usa IA para interagir com milhares de eleitores se enquadra nesse critério. Não fazer o RIPD é uma vulnerabilidade jurídica significativa.
A AgenzAi trata essa questão de forma integrada. A plataforma já inclui mecanismos de consentimento, registro de base legal e exportação de dados para atender pedidos de titulares. Não é algo que a equipe de campanha precisa construir do zero.
Como documentar o uso de IA para auditorias
O TSE pode solicitar informações sobre o uso de IA a qualquer momento durante o processo eleitoral. Estar preparado para essa solicitação não é opcional.
O que você precisa ter documentado:
Inventário de ferramentas: Lista completa de todas as ferramentas de IA utilizadas na campanha, com nome do fornecedor, tipo de serviço, data de contratação e escopo de uso. Inclua desde o ChatGPT usado para rascunhos até plataformas de atendimento automatizado ao eleitor.
Registro de interações: Histórico completo das conversas entre agentes de IA e eleitores. Isso inclui data, hora, conteúdo da interação e identificação do canal (WhatsApp, site, Telegram). A retenção mínima recomendada é de 5 anos após a eleição.
Política de uso interno: Documento formal que define como a IA deve ser usada na campanha, quem tem acesso, quais são os limites e como funciona a supervisão humana.
Registros de revisão: Evidências de que o conteúdo gerado por IA passou por revisão humana antes da publicação. Pode ser tão simples quanto um fluxo de aprovação com timestamps.
Conformidade LGPD: Relatório de Impacto (RIPD), registros de consentimento, mapeamento de dados e procedimentos para atender direitos dos titulares.
Campanhas que usam a AgenzAi têm vantagem aqui, porque a plataforma gera esses registros automaticamente. O painel de compliance exporta relatórios prontos para auditoria, com logs de interações, identificação de IA e registros de consentimento.
Cenários práticos de uso legal
Para deixar tudo mais concreto, veja como a IA nas eleições 2026 pode ser usada de forma legal e eficaz em situações reais.
Cenário 1, atendimento em escala: Um candidato a deputado estadual recebe centenas de mensagens diárias no WhatsApp. Um agente de IA responde perguntas frequentes sobre propostas, informa sobre eventos e coleta sugestões. Cada mensagem começa com a identificação clara de que é um assistente de IA. O eleitor pode solicitar falar com um humano a qualquer momento. Todas as interações ficam registradas.
Cenário 2, análise de demandas regionais: A equipe de campanha usa IA para analisar milhares de mensagens recebidas e identificar os temas mais mencionados por região. Um relatório semanal é gerado com análise de dados da campanha agregados, orientando a pauta do candidato. Nenhum dado pessoal é exposto nos relatórios.
Cenário 3, produção de conteúdo para redes: A equipe de comunicação usa IA para gerar rascunhos de posts para redes sociais na campanha eleitoral com base no plano de governo. Cada peça passa por revisão humana antes da publicação. Quando publicada, inclui a tag “Conteúdo assistido por IA” conforme exigido pelo TSE.
Cenário 4, preparação para debates: A equipe usa IA para simular perguntas difíceis com base em declarações anteriores dos adversários e temas em alta na região. O candidato treina respostas. Nenhum conteúdo fabricado é publicado. É uso interno, de preparação, e perfeitamente legal.
Como o Brasil se compara a outros países
O Brasil está, surpreendentemente, à frente de muitos países na regulação de IA em eleições. Vale a comparação para entender o contexto.
Estados Unidos: Até o momento, não existe regulação federal específica para IA em campanhas eleitorais. Alguns estados, como Califórnia e Texas, aprovaram leis locais contra deepfakes eleitorais, mas a abordagem é fragmentada. O FEC (Federal Election Commission) ainda debate o tema.
União Europeia: O AI Act europeu é abrangente, mas não trata especificamente do contexto eleitoral. O Digital Services Act impõe obrigações às plataformas, mas não diretamente às campanhas.
Índia: Para as eleições de 2024, a Comissão Eleitoral indiana emitiu diretrizes gerais, mas sem força de lei comparável à resolução do TSE.
Canadá e Austrália: Têm regulações parciais focadas em transparência de anúncios políticos, mas sem o nível de detalhe da legislação brasileira.
O TSE criou um dos frameworks mais completos do mundo para IA em eleições. Isso é positivo para a democracia, mas também significa que o nível de exigência para campanhas brasileiras é alto. Não dá para importar práticas de outros países sem adaptação.
Checklist de compliance para campanhas
Para facilitar a vida de quem está montando uma campanha, aqui vai um checklist prático:
- Mapear todas as ferramentas de IA que serão usadas na campanha
- Verificar se cada ferramenta permite identificação automática de conteúdo gerado por IA
- Elaborar política interna de uso de IA com aprovação do advogado eleitoral
- Implementar mecanismos de consentimento LGPD para coleta de dados via IA
- Preparar o Relatório de Impacto à Proteção de Dados (RIPD)
- Definir fluxo de revisão humana para todo conteúdo gerado por IA
- Configurar registro e armazenamento de todas as interações com eleitores
- Treinar a equipe sobre o que pode e o que não pode ser feito com IA
- Contratar plataforma de IA com compliance eleitoral nativo, como a AgenzAi
- Agendar auditorias internas mensais durante o período de campanha
- Documentar fornecedores e contratos de tecnologia de IA
- Estabelecer protocolo de escalamento para situações sensíveis
O papel de plataformas especializadas
Existe uma diferença enorme entre usar ferramentas genéricas de IA, como ChatGPT ou Claude diretamente, e usar uma plataforma de gestão política construída para o contexto eleitoral.
Ferramentas genéricas não têm identificação automática de IA nas respostas. Não geram logs de auditoria no formato que o TSE espera. Não implementam consentimento LGPD de forma integrada. Não limitam respostas ao escopo do plano de governo do candidato. E não impedem que o agente diga algo que possa ser usado contra a campanha.
A AgenzAi resolve esses problemas porque foi projetada especificamente para isso. Cada interação já sai com a identificação de IA. O agente responde apenas dentro do escopo autorizado pela campanha. Os dados são tratados conforme a LGPD. E os relatórios de compliance ficam disponíveis em tempo real.
Para quem está avaliando software de campanha eleitoral, o critério de compliance com IA deveria estar no topo da lista de prioridades.
Tendências regulatórias para o futuro
A regulação de IA em eleições está longe de ser um tema resolvido. A Resolução 23.732/2024 é um primeiro passo importante, mas há movimentos que indicam onde as coisas estão indo.
O TSE já sinalizou interesse em criar um selo de conformidade para ferramentas de IA usadas em campanhas. Isso criaria um mercado diferenciado entre plataformas certificadas e não certificadas.
Há também discussão sobre watermarking obrigatório para conteúdo gerado por IA. Ou seja, marcas d’água digitais invisíveis que permitiriam rastrear a origem de qualquer peça de comunicação. A tecnologia existe e algumas plataformas já implementam.
No Congresso, tramitam projetos de lei que podem ampliar as penalidades para uso indevido de IA em eleições, incluindo a responsabilização de empresas de tecnologia que forneçam ferramentas usadas para deepfakes.
A tendência global é clara: mais regulação, mais transparência, mais responsabilização. Quem se adaptar primeiro terá vantagem competitiva nas próximas eleições.
Conclusão: IA nas eleições 2026 é inevitável
A IA nas eleições 2026 não é opcional. Toda campanha competitiva vai usar inteligência artificial de alguma forma. A questão não é se, é como.
O TSE criou um framework robusto. As regras existem. As penalidades são reais. E a fiscalização será mais intensa do que em qualquer eleição anterior.
Para campanhas que querem usar IA com segurança, o caminho é transparência total, supervisão humana constante, documentação rigorosa e conformidade com a legislação. Usar uma plataforma construída para compliance eleitoral, ao invés de adaptar ferramentas genéricas, reduz drasticamente o risco jurídico.
A tecnologia está aí. As regras estão postas. Quem se preparar agora vai chegar a 2026 com uma vantagem que poucos terão.
Sobre o autor
Time de Produto & Engenharia
A equipe AgenzAI combina expertise em inteligência artificial, engenharia de software e comunicação política para desenvolver agentes que transformam campanhas eleitorais.