Profissionais de marketing político se preparam para utilizar na eleição municipal deste ano ferramentas de inteligência artificial, tanto para a produzir conteúdo sintético – imagens, vídeos ou sons – como para criar e direcionar mensagens personalizadas, adequadas a perfis específicos de eleitores. O entusiasmo com a tecnologia, de acordo com Rodrigo Carro e Caio Sartori , do jornal Valor, convive com temores de que o uso indiscriminado da IA possa causar prejuízos difíceis de reverter à reputação e à credibilidade de candidatos.
Na Argentina, onde foi empregada nas eleições presidenciais de 2023, a IA generativa – aquela capaz de gerar texto, imagens, áudio e até vídeos a partir de solicitações feitas pelo usuário em linguagem comum – permitiu à equipe do candidato derrotado Sergio Massa dramatizar as possíveis consequências para o país do aquecimento global. Num dos vídeos do peronista, Buenos Aires aparece tomada pelas chamas e o então adversário Javier Milei está numa camisa-de-força.
“Tínhamos [que ajudar as pessoas a] visualizar o que seria um governo Javier Milei”, explica o brasileiro Halley Arrais, um dos responsáveis pela campanha de Massa.
O outro lado da moeda – como diz o próprio Arrais – é a possibilidade de apoiadores dos candidatos produzirem peças difamatórias com imagens e áudio falsos contra adversários. Ainda na Argentina, um vídeo falso fabricado com auxílio de IA mostrava Sergio Massa consumindo cocaína.
“O poder de corrosão da confiança do eleitor é muito grande. Isso pode influir [negativamente] na democracia. O próprio mercado de comunicação política no Brasil, talvez [em conjunto] com o TSE [Tribunal Superior Eleitoral], precisa ter um cuidado com isso. Porque senão destruímos o nosso próprio ecossistema”, reconhece Arrais.
A agência de Arrais presta serviços para possíveis candidatos de esquerda que vão disputar prefeituras das capitais este ano, mas o trabalho ainda está em fase de testes qualitativos e quantitativos para acertar a linha discursiva das campanhas: “Não estamos colocando ainda no Brasil – temos a expertise e o planejamento – porque estamos na fase de entender o eleitorado”, justifica.
O TSE anunciou este mês que vai regulamentar o uso da IA nas eleições municipais deste ano. O assunto é tratado numa das minutas de resoluções publicadas pelo tribunal em 5 de janeiro e que será discutida em audiência pública marcada para quinta-feira (25).
A ferramenta me dá uma multiplicidade de linguagens imediatamente”
— Renato Pereira
A corte propõe a obrigatoriedade de informar explicitamente ao público a utilização de conteúdo fabricado ou manipulado em qualquer modalidade de propaganda eleitoral. No entendimento do TSE, seria considerada manipulação a criação ou a edição de “conteúdo sintético que ultrapasse ajustes destinados à melhoria da qualidade do material”, conforme indica o texto da minuta.
“A intenção do tribunal é dar conhecimento do uso da inteligência artificial para que a partir dessa informação outros controles sejam realizados, principalmente quanto à desinformação e às montagens”, explica o advogado Raphael Matos, especialista em direito administrativo do Marzagão e Balaró Advogados.
A regulamentação do uso de IA nas campanhas oficiais, no entanto, não resolve a questão da produção informal de conteúdo falso por apoiadores dos candidatos. Professora da Pontifícia Universidade Católica de São Paulo (PUC-SP), Dora Kaufman defende a proibição total pelo TSE do uso de IA na criação das peças publicitárias eleitorais, sejam elas no formato de texto, imagem ou voz. “Não se trata de proibir o uso da IA nas eleições. Isso não é possível”, diz a especialista, lembrando que o foco do TSE é a campanha oficial.
Explicitar se uma peça de campanha foi produzida com o uso de IA seria insuficiente, na visão de Kaufman. “Na campanha argentina ficou muito difícil identificar o que era verdade e o que era mentira”, argumenta. “[A proibição pelo TSE] não resolve todos os problemas das eleições, apenas reduz uma das possibilidades de confundir o processo.”
Numa disputa eleitoral, a utilidade potencial da IA não se restringe à criação de conteúdo sintético. Publicitário com experiência em campanhas no Rio e, nos últimos anos, fora do país, Renato Pereira vê facilidades sobretudo no chamado “microtargeting” – direcionamento de conteúdo específico para diferentes setores da sociedade. As redes sociais transformaram as campanhas ao permitir esse tipo de distribuição da mensagem política, e a inteligência artificial, diz, eleva isso a novo nível.
“Posso pedir para o ChatGPT construir mensagens diferentes para aquela senhora religiosa que mora na periferia, para aquele jovem funkeiro que mora na favela, para o senhor classe média já aposentado, ex-empresário”, elenca o marqueteiro. “A ferramenta vai me dar uma multiplicidade de linguagens imediatamente.”
Em uma campanha, diz Pereira, comunicações como essas são feitas centenas de vezes, seja por iniciativa própria do candidato ou por reação a fatos que aconteceram, como ataques de adversários. “Antes, faria-se uma manifestação e distribuiria com a mesma linguagem. Hoje, pode ser feito de maneira absolutamente individualizada. Para esse aspecto de mensagem, que isoladamente talvez seja o mais importante de uma campanha, a ajuda da IA é absurda”, observa o marqueteiro, que – com o auxílio da versão paga do ChatGPT – tem explorado possibilidades em diferentes níveis de construção de campanha.
Professor da Unicamp e pesquisador do tema, o antropólogo Rafael Evangelista também destaca a capacidade da IA para o “microtargeting”, mas a vê de forma negativa. “Para o interesse de campanhas, pode ser bom, mas para o interesse público, não. O ‘microtargeting’ cria zonas de sombra, porque muitas vezes se compra um candidato porque ele está falando o que você quer ouvir”, diz. “Do ponto de vista de um ecossistema de informação que vivemos, vai ter mais confusão. Já temos uma produção que ninguém dá conta. Microfragmentando, complica ainda mais.”
Se em eleições anteriores já havia a preocupação com a velocidade de disseminação de informações falsas, o pleito deste ano traz uma preocupação adicional: como identificar os deepfakes, técnica que sintetiza imagens ou sons humanos por meio de IA? “Os especialistas ainda estão lutando para desenvolver tecnologias que permitam esse monitoramento externo de forma factível. Às vezes, inclusive, esses softwares erram”, diz Yasmin Curzi, pesquisadora do Centro de Tecnologia e Sociedade (CTS), da FGV Direito Rio.