2025-02-21
HaiPress
Ísis Valverde (à esquerda) procurou a polícia por fotos forjadas em que apareceria nua; Ana Castela (à direita) denunciou vídeos falsos na internet em que sua imagem foi usada — Foto: Fotos de reprodução
GERADO EM: 20/02/2025 - 22:33
O Irineu é a iniciativa do GLOBO para oferecer aplicações de inteligência artificial aos leitores. Toda a produção de conteúdo com o uso do Irineu é supervisionada por jornalistas.
CLIQUE E LEIA AQUI O RESUMO
Aprovado na terça-feira pela Câmara dos Deputados,o projeto que criminaliza a criação e a divulgação de imagens manipuladas por inteligência artificial para simular nudez,ou deepnude,é uma resposta a uma onda de crimes digitais cometidos principalmente contra mulheres. Mas especialistas consideram a norma insuficiente e apontam que a falta de regulação das plataformas de Inteligência Artificial no país pode dificultar o combate a esse crime.
Deepfake: Entenda técnica de manipulação de imagem que expôs Mel Maia na webMudança: Google altera ferramenta de busca para reduzir exibição de 'deepfake' pornô
No deepnude,a IA simula a remoção de roupas em imagens estáticas ou vídeos. A prática foi popularizada por um software já desativado,mas tecnologias semelhantes circulam ilegalmente. Os objetivos mais frequente são exploração sexual,assédio e extorsão.
O projeto que agora irá para o Senado prevê reclusão de dois a seis anos e multa pelo crime. A pena será aumentada de um terço até a metade se a vítima for mulher,criança,adolescente,pessoa idosa ou com deficiência. Quando o ato for cometido com a disseminação em massa nas redes sociais ou em plataformas digitais,a pena será aumentada de um terço ao dobro.
Para coibir a prática em campanhas eleitorais,o projeto define a reclusão de dois a oito anos e multa. Quando o crime tiver sido praticado por um candidato,ele perderá o registro de candidatura ou do diploma,de acordo com o texto.
Para a advogada Karina Bueno Timachi,especialista em crimes sexuais contra a mulher,a aprovação do projeto é importante. Mas não impede a prática de maneira efetiva,porque as plataformas que produzem as imagens funcionam sem regulamentação.
— O Código Penal brasileiro já prevê como crime quem registra a intimidade sexual de outra pessoa sem autorização. O que o Brasil precisa é de uma regulação das plataformas de IA,que devem se responsabilizar por fiscalizar essas manipulações de imagem e ter esse recurso proibido em casos de nudez — explica a advogada.
Presidente da SaferNet,ONG que acompanha crimes virtuais,Thiago Tavares lembra que o projeto que pretende regular a IA no Brasil está parado no Senado.
— O Brasil é um dos países com maior número de vítimas. O projeto que regula a IA aborda em escala de risco a atuação das plataformas — defende.
Em 2019,um estudo da empresa de tecnologia Sensity AI mostrou que 96% das imagens geradas por aplicativos para deep fake são pornográficas,e as principais vítimas são mulheres. Desde 2023,cerca de 70 jovens foram afetadas por esse conteúdo em escolas de São Paulo e do Rio.
A agressão também atinge celebridades. No fim do ano passado,a cantora Ana Castela denunciou ter tido vídeos íntimos falsos com seu rosto circulando pela internet. A atriz Ísis Valverde registrou um boletim de ocorrência na Polícia Civil do Rio por fotos forjadas de nus.
A deputada federal Tabata Amaral (PSB),ex-candidata à prefeita de São Paulo,apresentou notícia-crime à Justiça Eleitoral após serem divulgadas fotos manipuladas por IA em que aparece em poses sensuais. A prática foi usada durante a campanha eleitoral contra ao menos cinco candidatas.