A criação de imagens falsas com rostos de candidatos, casos de “deepnudes” e geração de jingles de forma sintética marcaram o uso de inteligência artificial na primeira fase da disputa eleitoral municipal no Brasil. O temor de que a IA virasse munição para casos massivos de desinformação não se concretizou. Especialistas ouvidos pelo GLOBO alertam, no entanto, que o pleito é uma espécie de “laboratório” para 2026, em que o cenário pode ser mais desafiador.
Um relatório do “Observatório IA Nas Eleições”, coordenado pelo Data Privacy Brasil Research, o Aláfia Lab e o desinformante, mapeou seis usos predominantes da inteligência artificial nesse primeiro turno, incluindo vídeos sintéticos gerados pelos próprios candidatos e material de campanha que foi criado por IA, especialmente entre candidatos com poucos recursos.
—O temor de uso massivo de IA não se concretizou. Isso não significa que não houve uso. Um dos pontos do relatório foi mostrar que, apesar de não ter sido usada em grande escala e ter impacto reduzido em relação a outras campanhas de desinformação, essas tecnologias foram aplicadas tanto por candidatos quanto pelo eleitorado — diz Matheus Soares, um dos pesquisadores que faz parte do Observatório.
Soares avalia que, para as eleições presidenciais de 2026, a IA deve estar mais integrada a ferramentas e com recursos mais avançados, o que pode mudar o cenário em uso eleitoral.
Marco Aurelio Ruediger, diretor da Escola de Comunicação, Mídia e Informação da Fundação Getulio Vargas (FGV Comunicação Rio) concorda que a tecnologia não teve um impacto tão significativo em casos de desinformação até aqui, em parte porque o pleito municipal é pulverizado, diz. Ele também avalia que isso pode mudar em 2026, a exemplom do que houve em outros países:
— Em uma eleição presidencial, como já vimos em países como Argentina e Índia, o uso de IA tende a ser muito mais difundido. O custo de oportunidade é diferente em campanhas majoritárias, e isso deve tornar a tecnologia mais presente — avalia.
‘Deepnudes’ miraram candidatas em SP
O documento do grupo relata casos diversos de desinformação com deepfakes, as imagens realistas geradas por IA. Em Manaus, três semanas antes do primeiro turno, moradores do bairro Monte Sinai receberam nas redes sociais um trecho do Jornal Nacional em que o apresentador William Bonner indicava voto num candidato a vereador. O modelo do vídeo falso poderia ser replicado para outros candidatos.
Campanhas de desinformação desse tipo foram feitas em cidades maiores também. Um vídeo criado por apoiadores de Pablo Marçal (PRTB) com ajuda de IA mostrou um suposto abraço dele e de Tabata Amaral (PSD) durante um debate televisivo, sugerindo uma conciliação do ex-coach com a adversária.
Na Justiça Eleitoral, as deepfakes (por imagem e áudio) viraram alvo de ações. Um dos casos que entrou na jurisprudência dos tribunais eleitorais ocorreu em Canindé de São Francisco, no Sergipe, em que um vídeo postado em um grupo de WhatsApp usou uma voz gerada por IA para acusar falsamente um pré-candidato de má gestão. A Justiça determinou a remoção do conteúdo e aplicou multa ao responsável.
Ainda para influenciar o voto e enganar o eleitor, a IA foi aplicada em ao menos cinco casos de “deepnudes” que tiveram mulheres como alvo. O conteúdo sintético de teor sexual atingiu candidatas de capitais, como nos casos de Tabata Amaral (PSB) e de Marina Helena (Novo), ambas que concorriam à prefeitura de São Paulo.
Candidatas foram alvo também em municípios menores, com ao menos dois casos no interior de São Paulo. A candidata Loreny Caetano (Solidariedade), que ficou de fora da disputa do segundo turno em Taubaté, teve fotos suas alteradas para aparecer sem roupa. Reeleita para comandar Bauru, Suéllen Rosim (PSD), foi alvo do mesmo crime dias depois.
“Os casos de deepnudes visando candidatas mostram como essa tecnologia pode reforçar a violência de gênero já sofrida pelas mulheres nos espaços e contextos políticos”, afirma relatório do Observatório.
Laura Schertel, professora da Universidade de Brasília (UNB) e do Instituto Brasileiro de Desenvolvimento, Ensino e Pesquisa (IDP), diz que ainda será necessário mais tempo para entender como a Justiça lidará com esses casos. A avaliação dela é que, nestas eleições, os casos de deepnudes foram os mais graves envolvendo IA.
— Teríamos que pensar em aprimoramentos instituicionais que não passam só pelo TSE, mas também pela regulação das plataformas, de forma a conter os danos da circulação desse tipo material. Esse acarbouço institucional ainda precisará ser construído — afirma a professora, que concorda que uso de IA para desinformação deve intensificar nas eleições nacionais, em especial em um contexto polarizado, como os anteriores.
Candidatos pagaram R$ 300 por jingle de IA
As deepfakes também foram usadas pelos próprios candidatos, nem sempre de acordo com as regras do Tribunal Superior Eleitoral (TSE). A corte definiu em fevereiro a necessidade de identificação em peças geradas por IA, e também proibiu material que possa descontextualizar, manipular ou desinformar.
A avaliação dos juízes e tribunais sobre os casos envolvendo deepfakes têm variado. Em geral, os magistrados e desembargadores ponderam a qualidade da manipulação e o potencial de enganar o eleitor nas decisões.
— Ainda vamos precisar entender qual é o conceito de deepfake que irá se firmar na jurisprudência e que deverá ser aplicado. O que a gente percebe nas decisões é que foram consideradas deepfakes (possíveis de serem vedadas) apenas aquelas que tinham uma intenção de realmente se passar por real — pontua Schertel.
Ainda nas primeiras semanas da campanha, Marçal usou o X para publicar uma deepfake com o próprio rosto em que assoprava um pó branco. A referência era a acusação sem provas de uso de cocaína pelo então adversário Guilherme Boulos (Psol). O ex-coach não sinalizou que o vídeo havia sido criado com IA, como exigia o TSE.
O prefeito reeleito em Salvador, Bruno Reis (União), também usou deepfake com o próprio rosto. Em uma paródia, ele aparece dançando o próprio jingle em ritmo de pagode baiano em vários pontos de Salvador.
Já o adversário de Reis, Geraldo Júnior (MDB), usou IA para gerar uma imagem de Salvador como uma cidade ‘perfeita’ — limpa, moderna e tecnológica — em uma crítica à suposta desconexão entre o programa eleitoral de Reis e a realidade da cidade. Nos dois casos, houve sinalização de uso de inteligência artificial ao menos no Instagram.
Para candidaturas com menos recursos para investir em material de campanha, as ferramentas de IA que criam jingles e ajudam a produzir imagens se tornaram uma saída acessível.
No portal do TSE com informações dos candidatos, uma das empresas que ofereceu o serviço, a Video AI, foi contratada por ao menos 63 campanhas, a maioria de vereadores de cidades pequenas. Na prestação de contas, o despesa aparece como “produção de jingles, vinhetas e slogans”, com valor de R$ 298.
A IA também facilitou a criação de narração de vídeos e de edição de imagens. No caso dos jingles, o material de IA frequentemente assumiu “formato genérico, falando o nome do candidato e algumas propostas em diferentes estilos, e passando por diferentes gêneros musicais, do rock ao forró”, segundo o Observatório de IA.
Chatbots e uso de IA contra desinformação
Alguns candidatos foram além da inteligência artificial para produzir conteúdo. Eleito suplente de vereador em São Paulo, Pedro Markun (Rede) chegou a propor uma candidatura “híbrida” com um robô de IA. Na disputa pelo segundo turno para prefeitura de Belo Horizonte, Bruno Engler (PL), criou um chatbot de IA chamado “Vot 22” para responder a dúvidas de eleitores, assim como Tabata Amaral, que chamou o seu robô de “Rita”.
A resolução do TSE permite o uso de chatbots e avatares na comunicação com eleitores, desde que seja claramente informado que foram criados com IA e que não simulem candidatos ou pessoas reais.
Embora o temor sobre desinformação com IA tenha chamado mais atenção, pesquisadores ressaltam que o primeiro turno também trouxe exemplos construtivos do uso de inteligência artificial.
Em Goiás, o Tribunal Regional Eleitoral e a Universidade Federal de Goiás (UFG) lançaram app com IA para monitorar desinformação nas redes sociais. O Vota IA, criado por pesquisadores da Unicamp e UERJ, usa a tecnologia para destacar os temas mais citados em programas de governo de candidatos às prefeituras.