Deep fakes são frequentemente ilegais e podem ser usadas para expor, constranger e assediar mulheres, as quais não deram consentimento para exploração de suas imagens
O texto abaixo contém linguagem ofensiva contra mulheres utilizada por usuários de fóruns
Ferramentas de inteligência artificial têm sido usadas para remover roupas de fotografias de mulheres, efetivamente criando nudes falsas. Essas deep fakes são frequentemente ilegais, e podem ser usadas para expor, constranger e assediar pessoas, as quais não deram consentimento para ter suas imagens exploradas dessa forma.
O Núcleo acessou fóruns anônimos de discussão na internet (os chamados chans) repletos dessas imagens, e revela que usuários desses grupos estão utilizando promissoras tecnologias de geração de imagens com a finalidade de simular a nudez de mulheres que não escolheram posar nuas. Entre os exemplos encontrados estão artistas e até uma deputada.
Para evitar dar publicidade a esses grupos e não constranger as vítimas, o Núcleo optou por não divulgar nomes.
“Postem seus requests [pedidos] de nudes, e eu vou me esforçar o máximo para fazer um deep nude decente”, escreveu o criador de um dos tópicos que se destinam a tarefa em 11.jan.2022.
A sequência desse post fez com que dezenas de usuários enviassem fotografias de todos os tipos, desde mulheres de biquíni na praia até selfies no espelho com vestidos.
Horas depois, outro usuário publicava fotografias que mostravam aquelas mesmas mulheres completamente nuas — algumas de maneira muito convincente.
As imagens que simulavam a nudez dessas mulheres passaram a ser, então, alvo de misoginia de alguns participantes.
Um dos usuários publicou a fotografia de uma mulher vestindo shorts de academia e cropped. “Única foto que tenho dessa vagabunda. Se puder contribuir com minha punheta ficarei eternamente grato”, escreveu.
“Essa deu um trabalho do cão”, respondeu um dos autores do tópico, com uma imagem simulando a mesma mulher nua.
“Muito obrigado mestre”, agradeceu o requisitante.