De short vermelho, descalço e sem camisa, o presidente Jair Bolsonaro (PL) aparece em uma cozinha dançando o funk “Vai dar PT”, sucesso de MC Rahell, em vídeo com 5,2 milhões de visualizações no Instagram. O rosto é o do presidente, mas não é ele a pessoa do vídeo: trata-se de uma deepfake, onde a face de Bolsonaro foi inserida, por meio de IA (Inteligência Artificial), no corpo de outra pessoa.
A tecnologia não é nova e já era utilizada no cinema, mas nos últimos anos se popularizou a ponto de ser possível baixar aplicativos gratuitos para criar deepfakes. O receio de que as pessoas sejam enganadas tem sido o principal alerta do jornalista Bruno Sartori, o mesmo que criou e divulgou o vídeo de Bolsonaro dançando na cozinha.
“Lula de 10 dedos. Bolsonaro sem facada. Fiquem espertos com as deepfakes esse ano, pessoal”, escreve Sartori na postagem. É nesta legenda que ele aponta um detalhe importante: não há nenhuma cicatriz na barriga do homem das imagens. O presidente foi vítima de uma facada em 2018, tornando possível identificar que quem aparece dançando não é Bolsonaro.
Não foi Bolsonaro que disse que colocava a cara no fogo pelo Milton Ribeiro? ? pic.twitter.com/ZFMEK5WUpE
— Ciro Gomes (@cirogomes) June 22, 2022
No dia em que o ex-ministro da Educação Milton Ribeiro foi preso, o pré-candidato à Presidência Ciro Gomes (PDT) divulgou uma deepfake que mostra Bolsonaro como um dos vilões do filme “Esqueceram de Mim”. Nas imagens, o rosto do presidente aparece recebendo um jato de fogo na cabeça, enquanto a legenda questiona: “Não foi Bolsonaro que disse que colocava a cara no fogo pelo Milton Ribeiro?”
Apesar do uso majoritário das deepfakes em tom de humor nas redes, especialistas se preocupam que elas assumam protagonismo nas eleições de 2022, elevando a dificuldade do combate às fake news.
Da diversão para a desinformação
O uso de deepfakes permitiu que uma propaganda de streaming revivesse o personagem Chaves e que o rapper Kendrick Lamar se transformasse em Will Smith em um clipe. Mas a tecnologia também serviu para que golpistas se fizessem passar por Elon Musk e que, em outro caso, divulgassem um vídeo em que o presidente ucraniano, Volodymyr Zelensky, declara rendição à Rússia.
Em artigo para o MIT Technology Review, a cientista da computação Nina Da Hora discorre sobre os impactos das deepfakes na sociedade, sobretudo pelo amplo acesso à tecnologia e a sofisticação cada vez maior da ferramenta.
Ao UOL, ela explica que as primeiras deepfakes utilizaram informações a partir de filtros em redes como Snapchat, onde os usuários simulavam seus rostos rejuvenescidos ou envelhecidos e brincavam com a possibilidade de dublar músicas.
“Hoje, com a facilidade de criação de deepfakes e seu compartilhamento nas redes sociais, que atualmente são os principais meios de compartilhamento de notícias, é perigoso que campanhas políticas as utilizem para deslegitimar as eleições e os candidatos”, diz Nina.
No âmbito político, já circulou uma deepfake de Donald Trump explicando como os algoritmos o ajudaram a ser eleito presidente dos Estados Unidos. A manipulação de imagens não é nova no meio: há trechos de vídeos retirados de contexto e casos em que a velocidade da fala foi adulterada para fazer parecer que a pessoa estava bêbada — a presidente da Câmara dos Deputados dos EUA Nancy Pelosi e o ex-presidente Luiz Inácio Lula da Silva (PT) já foram alvos deste tipo de desinformação.
Algumas plataformas adotaram medidas para mitigar os riscos das deepfakes nas eleições americanas de 2020. A Microsoft lançou um software que ajudava a detectar a tecnologia. Já o TikTok baniu temporariamente as deepfakes no país.
Coordenador de jornalismo da Agência Lupa, voltada para a checagem de notícias, Chico Marés alerta para o fato de que há casos em que não há certeza se o conteúdo divulgado é uma deepfake: “Acontece também de as pessoas alegarem deepfakes”.
Como exemplo, ele cita o caso de um vídeo íntimo atribuído ao ex-governador de São Paulo João Doria (PSDB) durante a campanha de 2018. Doria afirma ter sido vítima de manipulação digital. Em março deste ano, um laudo da Polícia Federal afirma que não há sinais de adulteração no vídeo.
Marés observa que as deepfakes atualmente utilizam vídeos que já existem, o que facilita aos checadores encontrar o conteúdo original. “O medo maior é lidar com aquilo que não sabemos de onde vem, como os audiofakes”.
Audiofakes
Os audiofakes são áudios criados também por programas eletrônicos. São diferentes de imitações feitas por comediantes, já que utilizam gravações para reconstruir a fala de outra pessoa.
“Audiofake é uma forma de criar áudios no formato digital usando algoritmos de inteligência artificial”, explica Nina da Hora. “A IA aprende os movimentos da voz e como combiná-los com os sons, resultando em uma mídia falsa. Em alguns detalhes é possível perceber a robotização, enquanto uma imitação é puramente algo sensorial e humano, parte de habilidades da fala e de gestos”
Em uma série de posts, Sartori mostra como construiu audiofakes de Bolsonaro, Dilma Rousseff (PT) e Sergio Moro (União Brasil) cantando “Beijinho no Ombro”, da funkeira Valeska Popozuda.
Para Chico Marés, os audiofakes ainda não têm sido utilizados para propagar desinformação no Brasil. Os conteúdos mais veiculados ainda são imitações de figuras públicas, como Lula e Bolsonaro, chamados de “cheapfakes” (do inglês “cheap”, que significa barato).
Riscos e redes
Sartori, que se identifica como “deepfaker” (ou seja, alguém que faz deepfakes) nas redes sociais, sinaliza em todos os vídeos que não são verdadeiros e compartilha o passo a passo da linha de produção de alguns deles.
Nina da Hora explica que, nos EUA, desde 2018 há um projeto de lei que busca criminalizar a criação e distribuição de deepfakes de forma ilegal. Em junho de 2019, o país adotou uma Ação de Responsabilidade que exige a inserção de marcas d’água e explicações em conteúdos que utilizam a tecnologia.
Para Nina, a melhor forma de se precaver do risco de desinformação por meio da tecnologia é adotando uma legislação específica sobre o assunto.
“As deepfakes atingem diretamente um dos direitos fundamentais que é a privacidade, deslegitimando pessoas e discursos em prol de algum ganho financeiro ou com o objetivo de manipular narrativas, tudo isso a partir do uso de dados sensíveis e sem autorização.”
O UOL procurou algumas das principais redes sociais utilizadas pelos brasileiros para saber quais as medidas adotadas diante da possibilidade de informação por meio de deepfakes:
“O Twitter conta, desde 2020, com a Política de Mídia Sintética e Manipulada (SAMM) para endereçar alterações em mídias, como as deep fakes, quando há intenção de enganar ou confundir as pessoas. Violações à política estão sujeitas às medidas cabíveis, e todos os usuários são igualmente submetidos a elas.”
A plataforma afirma proibir “falsificações digitais (mídia sintética ou manipulada) que possam enganar os usuários, distorcendo a veracidade dos eventos e causando danos à pessoa que aparece no vídeo, a outras pessoas ou a sociedade.”
São permitidas contas de paródia, desde que sinalizem aos usuários o seu propósito. “Caso um usuário passe por outra pessoa ou entidade de maneira enganosa, ele será removido por violar nossa política de falsificação de identidade.”
As redes não penalizam conteúdos que sejam identificados como paródias e sátiras. “Vídeos, áudios ou fotos — sejam eles deepfakes ou não —, serão removidos das plataformas da Meta se violarem nossas políticas com conteúdos, por exemplo, de nudez, violência gráfica, supressão de votos e discurso de ódio.”
A plataforma afirma não ter acesso ao conteúdo das mensagens trocadas entre os usuários, mas pede que condutas inapropriadas sejam denunciadas pelo próprio aplicativo.
“Como informado nos Termos de Serviço e na Política de Privacidade do aplicativo, o WhatsApp não permite o uso do seu serviço para fins ilícitos ou que instigue ou encoraje condutas que sejam ilícitas ou inadequadas. Nos casos de violação destes termos, o WhatsApp toma medidas em relação às contas como desativá-las ou suspendê-las.”