Diante da facilidade inédita para se gerar imagens e sons falsos com inteligência artificial, a criadora do ChatGPT, OpenAI, e algumas redes sociais anunciaram medidas para prevenir o uso da tecnologia para manipular as eleições.
Outras empresas de IA, como Google, Midjourney e Stability AI ainda não apresentaram planos.
O cenário se dá em meio a contexto em que nenhum país tem um arcabouço regulatório em vigência sobre inteligência artificial. Em dezembro, a Europa fechou acordo sobre texto-base de regulação da tecnologia, que ainda precisa de promulgação.
Em 2024, haverá eleições em mais de 50 países, que representam cerca de metade da população mundial. Apesar de as medidas também serem válidas para o Brasil, que tem eleições municipais no segundo semestre, de modo geral, elas trazem detalhamentos apenas em relação às eleições norte-americanas.
A OpenAI publicou na segunda-feira (15) artigo sobre o plano que adotará para diminuir danos. Assim, manteve a estratégia de tentar se antecipar a reguladores abrindo o debate sobre o uso seguro de sua tecnologia.
Redes sociais, por sua vez, criaram algumas regras para que usuários sejam transparentes quanto ao uso deste tipo de tecnologia.
Segundo o artigo da OpenAI, as iniciativas da empresa durante o processo eleitoral se darão em três pilares: prevenir abuso, promover transparência de que conteúdos são gerados por IA e facilitar o acesso a conteúdo de credibilidade sobre os sistemas de votação.
Em relação à última medida, a OpenAI afirma que trabalha nos EUA com a Associação Nacional de Secretários de Estado e divulgará o site CanIVote.org —não há menção a parcerias com entidades de outros países. Questionada pela Folha a respeito, a empresa diz que pretende adaptar os aprendizados durante a campanha americana à realidade de outras regiões –a eleição presidencial nos EUA ocorrerá em novembro e a brasileira em outubro.
A OpenAI afirma que tem salvaguardas para evitar a produção de deepfakes, como proibir a reprodução de imagens de pessoas reais, o que inclui candidatos. Diz ainda que trabalha para impedir que seus sistemas desrespeitem as normas impostas durante o treinamento do modelo de IA.
Além disso, depois de disponibilizar a opção de criar chatbots especializados, os GPTs, para os assinantes da versão paga ChatGPT Plus, a OpenAI também proibiu que desenvolvedores criem chatbots que imitem determinada pessoa. Isso poderia ser útil na hora de imputar discursos falsos a desafetos eleitorais.
O Google, por sua vez, ainda não divulgou planos para mitigar danos causados pelo abuso de IA durante as eleições. A gigante da tecnologia também não respondeu se limita a reprodução da imagem de terceiros, como faz a OpenAI.
Procurado pela Folha, o Google diz que adotou uma abordagem responsável no desenvolvimento da inteligência artificial, tendo em vista as oportunidades e riscos de qualquer tecnologia emergente. “Nossas políticas proíbem conteúdo e anúncios que confundam os eleitores sobre como votar ou que estimulem a interferência no processo democrático, incluindo uso de mídia manipulada.”
As outras duas empresas responsáveis por populares modelos de inteligência artificial geradoras de imagem –Midjourney e Stability AI– ainda não divulgaram estratégias que adotarão durante as eleições de 2024.
O Midjourney —ferramenta que ficou conhecida com a criação da imagem do papa Francisco com uma jaqueta puffer branca— proíbe em suas normas o uso de sua tecnologia para manipular processos eleitorais, sem especificar como garante o cumprimento da regra.
A Stability AI, responsável pelo modelo Stable Diffusion, afirmou em comunicado após reunião com o Senado americano em novembro que as tecnologias, pela legislação americana, são neutras e as pessoas que abusarem dos recursos de IA podem ser acusadas criminalmente de fraude, difamação e uso não permitido de imagens.
O Stable Diffusion, assim como outros modelos de IA, tem código aberto e pode ser editado para não ter qualquer regra durante o uso.
Midjourney e Stability AI não responderam aos questionamentos da Folha, enviados por email.
Sem uma lei sobre o tema, a questão da inteligência artificial na campanha eleitoral deverá ser abordada em resolução do TSE (Tribunal Superior Eleitoral).
Uma minuta elaborada pela vice-presidente da corte, a ministra Cármen Lúcia, e que ainda deve passar por audiência pública e análise do plenário, indica que será obrigatório que os usuários informem o uso de inteligência artificial para geração de conteúdos.
À Folha o ministro do TSE Floriano de Azevedo Marques Neto disse que a principal preocupação do tribunal brasileiro é com o falseamento de imagens e vozes de pessoas, nas chamadas deepfakes. “O fato é que a IA foi pouco presente no pleito de 2022 e quase nada em 2020”, disse.
Redes sociais
Se a OpenAI mira evitar abusos com a produção de deepfakes, empresas de redes sociais estabeleceram algumas regras que têm como alvo evitar a circulação sem transparência desse tipo de conteúdo.
A Meta, dona de Facebook, Instagram e WhatsApp, anunciou ainda em 2023 atualizações em sua política de anúncios políticos, também com menções às eleições americanas —como o ano coincide com o pleito municipal brasileiro, as regras acabam válidas para o Brasil.
Anunciantes terão que divulgar o uso de IA em algumas hipóteses, como quando tenha havido alteração para que uma pessoa real esteja “dizendo ou fazendo algo que não disse ou fez”. A Meta afirma que faz moderação ativa desses anúncios e que, caso detecte omissão por parte de anunciante, punirá a conta.
Essas regras, entretanto, não valem para publicações orgânicas, sem pagamento por maior alcance. Além disso, entre os anúncios comuns, para os quais não valem as novas normas de IA, já há casos de uso de deepfake para aplicar golpes nas redes sociais da Meta —Facebook e Instagram—, como mostrou a Folha.
O TikTok, por sua vez, divulgou em março de 2023 regras para publicação de deepfakes. Os vídeos que usem essa tecnologia precisam ser identificados por um emblema e não podem fazer referência a pessoas que não sejam públicas ou menores de idade.
Além disso, os deepfakes no TikTok não podem servir como instrumento de campanha política, violar as políticas do aplicativo ou ter intenção de enganar outros usuários.
Procurado pelo jornal Folha de S. Paulo, via email, o X, ex-Twitter, não respondeu às perguntas da reportagem. A rede social, desde que foi comprada por Elon Musk no fim de 2022, deixou de ter representação de imprensa no Brasil.