A OpenAI, empresa por trás do ChatGPT, revelou, nesta última sexta-feira (29), uma ferramenta de clonagem de voz que planeja manter sob estrito controle até que sejam implementadas medidas de segurança para impedir falsificações de áudio destinadas a enganar os ouvintes.
Um modelo chamado “Voice Engine” pode essencialmente duplicar a fala de alguém com base em uma amostra de 15 segundos, de acordo com uma postagem no blog da OpenAI que compartilha os resultados de um teste em pequena escala.
“Reconhecemos que gerar fala que se assemelha às vozes das pessoas apresenta sérios riscos, que estão especialmente em destaque em um ano de eleições”, disse a empresa sediada em San Francisco.
“Estamos envolvendo parceiros dos Estados Unidos e internacionais do governo, mídia, entretenimento, educação, sociedade civil e outros setores, para garantir que estamos incorporando seus feedbacks conforme construímos”, acrescentou.
Pesquisadores da desinformação temem o uso generalizado de softwares alimentados por inteligência artificial (IA) em um ano eleitoral crucial, graças à proliferação de ferramentas de clonagem de voz baratas, fáceis de usar e difíceis de rastrear.
Admitindo esses problemas, a OpenAI afirmou que está “adotando uma abordagem cautelosa e informada para um lançamento mais amplo devido ao potencial de uso indevido de vozes sintéticas”.
A revelação cautelosa chega alguns meses após um consultor político que trabalhava para a campanha presidencial de um candidato improvável, rival democrata de Joe Biden, assumir a responsabilidade por uma ligação robótica fingindo ser o presidente americano.
A chamada gerada por IA, ideia do consultor do congressista democrata Dean Phillips, apresentava o que parecia ser a voz de Biden pedindo às pessoas que não votassem nas primárias de New Hampshire em janeiro.
O incidente causou alarme entre especialistas que temem uma enxurrada de desinformação “deepfake”, utilizando IA, na corrida presidencial de 2024 nos Estados Unidos, assim como em outras eleições-chave ao redor do mundo.
A OpenAI disse que seus parceiros que estão testando o Voice Engine concordaram com regras, incluindo a necessidade de consentimento explícito e informado de qualquer pessoa cuja voz seja duplicada.
Também deve ficar claro para o público quando as vozes que estão ouvindo são geradas por IA, acrescentou a empresa.
“Implementamos um conjunto de medidas de segurança, incluindo marca d’água para rastrear a origem de qualquer áudio gerado pelo Voice Engine, bem como monitoramento proativo de como ele está sendo usado”, garantiu a companhia.