Tramita na Câmara dos Deputados um projeto de lei que proíbe a venda e utilização de aplicativos e softwares que utilizam inteligência artificial (IA) para criar fotos ou vídeo de pessoas nuas. Com esse tipo de programa, é possível gerar uma nova foto ou um novo vídeo de uma pessoa sem roupas (deep nudes), a partir de imagens reais onde ela está vestida. As informações são de Karina Ferreira, do jornal Estadão.
O aplicativo faz a montagem com um corpo semelhante ao da pessoa, o que dificulta muitas vezes o reconhecimento de que se trata de uma imagem adulterada.
O Projeto de Lei nº 3902/23, de autoria do deputado Romero Rodrigues (Podemos-PB), altera o Marco Civil da Internet para ampliar a responsabilidade dos provedores no combate à disseminação de fotos e vídeos falsos. Segundo o texto, o provedor deverá responder na Justiça caso não retire a imagem do ar após receber a notificação da vítima ou de seu representante legal.
Segundo a proposta, se a pessoa que aparece nas imagens criadas por terceiros não autorizar o compartilhamento, há a violação da intimidade decorrente da divulgação da foto ou do vídeo, e o provedor de internet deve ser responsabilizado.
No início do mês, um caso envolvendo mais de 20 alunas de um colégio particular do Rio de Janeiro trouxe à tona o debate. As estudantes alegam que tiveram fotos falsas criadas por inteligência artificial e compartilhadas em grupos em aplicativos de mensagens.
O projeto tramita em caráter conclusivo, ou seja, não precisará passar por votação no plenário da Câmara caso haja concordância das comissões de Comunicação; e de Constituição e Justiça e de Cidadania (CCJ).