O recente caso de um vídeo produzido com Inteligência Artificial (IA) que simula um suposto pastor agredindo mulheres vestidas com camisas do PT, alvo de críticas de lideranças políticas no Rio Grande do Norte, acendeu um alerta sobre o uso dessas tecnologias no ambiente eleitoral. O episódio, além de envolver desinformação, traz elementos de violência política de gênero — um dos pontos que passaram a ser alvo direto da nova regulamentação da Justiça Eleitoral para o pleito de 2026.
O caso ilustra o tipo de conteúdo que as novas regras do Tribunal Superior Eleitoral (TSE) buscam coibir: materiais manipulados, com aparência realista, capazes de enganar eleitores e tensionar o debate público. Para o presidente da Comissão de Direito Eleitoral da OAB-RN, Fabrício Bruno, o avanço da Inteligência Artificial consolida o ambiente digital como principal arena política — ampliando tanto o acesso quanto os riscos.
“O ambiente digital tem sido e será a nova arena política. Essas tecnologias democratizaram o acesso às campanhas, reduziram custos, mas também abriram espaço para usos indevidos”, afirma.
SAIBA MAIS: Natália critica vídeo feito por IA que incita violência contra mulheres do PT
Regras mais rígidas e foco na transparência
O TSE, no último mês de março, aprovou uma série de restrições ao uso de Inteligência Artificial nas campanhas eleitorais, com foco em transparência e combate à desinformação.
Uma das principais exigências é que conteúdos produzidos com uso de IA tragam identificação clara sobre a tecnologia utilizada.
“O candidato que utilizar inteligência artificial, precisa deixar isso explícito na publicação. Caso contrário, o conteúdo pode ser removido”, explica Fabrício Bruno.
A regulamentação também proíbe o uso de deepfakes — conteúdos que falsificam voz, imagem ou identidade — mesmo quando utilizados para beneficiar candidatos.
Além disso, estabelece uma janela de restrição: fica vedado o uso de IA nas 72 horas que antecedem o pleito e nas 24 horas posteriores, incluindo a republicação de conteúdos nesse período.
Outro ponto importante é a proibição do uso de sistemas de IA para recomendar candidaturas a eleitores, prática associada ao funcionamento de algoritmos em plataformas digitais.
A norma também avança no enfrentamento à violência política de gênero, ao vedar deepfakes com nudez ou conteúdos que incentivem ataques contra mulheres.
Velocidade da desinformação e desafio da fiscalização

Apesar das novas regras, o principal desafio continua sendo a velocidade com que conteúdos falsos ou manipulados se espalham, especialmente em aplicativos de mensagem. Nesse cenário, Fabrício Bruno destaca que a atuação da Justiça Eleitoral depende, em grande parte, de ser provocada para poder agir.
“Não considero que há lentidão da Justiça Eleitoral. Pelo contrário, ela é bastante célere quando acionada. O problema é que muitas vezes não toma conhecimento imediato do conteúdo”, afirma.
O advogado pontua que a Justiça Eleitoral, uma vez provocada, pode determinar rapidamente a retirada de conteúdos e aplicar sanções, que vão desde multas até, em casos mais graves, a cassação de registro ou diploma — além da possibilidade de responsabilização criminal.
Fabrício Bruno ressalta ainda que a legislação não trata apenas de conteúdos totalmente falsos. Informações verdadeiras, quando manipuladas ou retiradas de contexto, também podem ser punidas.
“Às vezes você pega um fato real e distorce. O efeito pode ser tão prejudicial quanto o de uma fake news”, alerta.
Das fake news de 2018 à sofisticação da IA

O alerta sobre desinformação nas eleições ganha peso ao se observar o histórico recente no Brasil. Em 2018, o debate público foi marcado pela circulação massiva de notícias falsas, como as narrativas do chamado “kit gay”, amplamente disseminadas em redes sociais e aplicativos de mensagem. Em 2022, a mesma desinformação voltou a circular.
A diferença agora está no nível de sofisticação. Graças ao advento da Inteligência Artificial, tornou-se possível produzir vídeos hiper-realistas, com vozes e imagens simuladas, dificultando ainda mais a identificação de conteúdos falsos.
“Hoje, até quem está acostumado a lidar com esse tipo de material pode ter dificuldade de identificar. Por isso, a recomendação é sempre desconfiar e verificar antes de compartilhar”, orienta Fabrício Bruno.
Embora a desinformação eleitoral não seja exatamente uma novidade, a incorporação da IA a esse contexto, desde a produção de textos, passando pela criação de imagens e chegando até a geração áudios e vídeos realistas, representa uma camada extra de risco para as eleições de 2026.
Uma pesquisa recente do InternetLab exemplifica o tamanho do desafio. De acordo com o levantamento, grande parte dos entrevistados disse acreditar já ter recebido conteúdos políticos ou eleitorais produzidos com IA sem saber.
Outra parcela admite não conseguir identificar quando imagens, vídeos ou áudios são sintéticos. O relatório aponta que 99,1% daqueles que responderam à pesquisa afirmam usar o WhatsApp – aplicativo de mensagem que favorece a circulação ampla de conteúdos políticos, dificultando a transparência, o rastreio e a checagem das informações compartilhadas nesse ambiente.
Papel da sociedade e canais de denúncia

Diante desse cenário, o advogado reforça que o combate à desinformação não depende apenas das instituições, mas também da sociedade. A orientação é que conteúdos suspeitos sejam verificados antes de qualquer compartilhamento.
Em caso de dúvida, é possível recorrer ao Ministério Público Eleitoral, à Comissão de Direiro Eleitoral da OAB-RN, a veículos de imprensa ou às agências de checagem de fatos.
A própria OAB-RN disponibiliza canais de atendimento para encaminhar denúncias à Comissão de Direito Eleitoral.
“A sociedade precisa participar. O dano causado pela desinformação pode ser irreversível, especialmente em um ambiente de disputa eleitoral”, alerta Fabrício Bruno.
Eleições digitais e necessidade de controle
Na medida em que as campanhas ficam cada vez mais digitais, a tendência é que a inteligência artificial tenha papel central nas eleições de 2026. Ao mesmo tempo, cresce a preocupação com o uso indevido dessas ferramentas para manipular eleitores, disseminar discursos de ódio e comprometer o equilíbrio da disputa.
Exemplos como o vídeo que simula violência contra mulheres, citado no início dessa reportagem, mostram que esse risco já é concreto. Para Fabrício Bruno, o desafio será garantir que a inovação tecnológica caminhe junto com responsabilidade e controle.
“A tecnologia não é o problema. O problema é o uso que se faz dela. No ambiente eleitoral, esse uso precisa ser acompanhado de regras claras e fiscalização efetiva para proteger o processo democrático”, conclui o advogado.
Fonte: saibamais.jor.br



