DeepNude: App usa Deepfake para criar imagens de mulheres nuas em instantes

DeepNude: App usa Deepfake para criar imagens de mulheres nuas em instantes 6
Novo App disponível para Windows usa a tecnologia Deepfake para "tirar as roupas" das mulheres

DeepNude é o aplicativo recém-lançado que utiliza a tecnologia Deepfake para recriar imagens íntimas e falsas de mulheres. O software foi descoberto por Samantha Cole, do site Motherboard, e está disponível para download em versões gratuita e premium, que oferece imagens com melhor resolução, custando US$ 99. O novo aplicativo é mais um exemplo de como a tecnologia pode ter seus usos deturpados, e, no caso da DeepNude, colocar mulheres em um risco real na internet com o conteúdo que ele é capaz de produzir.

O aplicativo se tornou ponto principal em uma reportagem da Vice, que apontou como, com apenas um upload de imagem, o aplicativo pode produzir uma falsa imagem íntima de qualquer mulher, utilizando apenas uma imagem cuja vítima esteja vestida. Utilizando deep learning e associado a vários tipos de inteligências artificiais, o software permite o upload de uma foto com uma mulher vestida, gerando uma nova versão sem roupas. Até o momento, o App só funciona com mulheres.

Por mais que o aplicativo coloque marcas d'água, a imagem pode ser confundida com uma real
Por mais que o aplicativo coloque marcas d’água, a imagem pode ser confundida com uma real

Mulheres especialistas fizeram alguns pronunciamentos sobre o aplicativo, em entrevista à Motherboeard. Muitas ressaltaram que o aplicativo é abominável, visto que ele invade diretamente vidas íntimas das mulheres, e que eles não possuem direito. Algumas apontaram a importância desse tipo de aplicativo não ser acessível ao público, pois ele pode cometer crimes previstos por lei, como o pornô revenge, considerado crime também no Brasil.

“Isso é absolutamente aterrorizante! Agora qualquer um poderia se encontrar uma vítima de pornô revenge, sem nunca ter tirado uma foto nua. Essa tecnologia não deveria estar disponível ao público. “

Katelyn Bowden, fundadora e Diretora Executiva da Badass, organização contra pornô revenge

“Isso é invasão da vida privada das pessoas. Pode não ser real, mas ainda assim muitos vão pensar que é!”

Danielle Citron, professora de Direito e Leis na Universidade de Maryland

Este aplicativo demonstra claramente o problema que muitas mulheres passam, pois há hoje fóruns onde os usuários podem pedir que especialistas se utilizem de imagens e vídeos íntimos de mulheres, conhecidas ou não, para compartilhamento online. Uma vez compartilhado, isso pode causar diversos problemas sérios às pessoas cujas imagens foram associadas.

Aplicativos como o DeepNude, que infelizmente se tornaram muito divulgados, acabam por agravar esse tipo de problema. Justamente porque a premissa do sistema é facilitar a criação de imagens falsas. Com alguns cliques e o upload de uma imagem, o usuário tem o resultado desejado. E isso é realmente muito perigoso.

Atualização:

Após todo o debate sobre o aplicativo, ele foi totalmente desativado. Em um tweet oficial dos desenvolvedores, a equipe por trás do aplicativo disse que eles “subestimaram” o interesse pelo projeto. Além disso, comentaram que “a probabilidade de que as pessoas o usem de forma abusiva é muito alta”. Confira o tweet na íntegra abaixo:

O app não será mais oferecido para venda, e não serão lançadas mais versões posteriores. Os desenvolvedores também alertaram ao público que o compartilhamento de conteúdo online, vai contra os termos de serviço do aplicativo. No entanto, ressaltaram que reconhecem que algumas cópias do aplicativo aparecerão.

O problema do Deepfake

Por mais que o aplicativo se preocupe em deixar claro que a imagem gerada é falsa, na era das fake news, imagens desse tipo podem facilmente ser confundidas com uma imagem real. Isso gera problemas sérios, podendo fazer com que feitos sejam atribuídos a quem não os praticou.

Deepfakes já geram discussão desde seu início no Reddit em 2017, e até empresas como a Samsung já criaram seu aplicativo utilizando inteligência artificial e deep learning para criar seus próprios vídeos. Porém o problema se torna mais profundo que a tecnologia em si.

Em vídeo falso, movimentos e falas e de Obama são controlados pelo ator e diretor Jordan Peele
Em vídeo falso, movimentos e falas e de Obama são controlados pelo ator e diretor Jordan Peele

Se as discussões sobre a tecnologia ser utilizada para pornografia já vinham à tona, outro alerta veio quando a prática começou a envolver políticos. Alguns vídeos de políticos circularam na internet usando falas que não são atribuídas a eles. Com a informação correndo muito rápido, fica muito fácil espalhar informações falsas de acordo com interesses próprios, fundamentadas por supostas provas em vídeo, e até mesmo em imagens falsas.

Ressaltando novamente que, no caso de vídeos e imagens íntimas fakes, isso gera diversos problemas éticos e legais. As criações enganosas podem prejudicar a vida de uma ou várias pessoas, seja ela famosa ou anônima, e, por enquanto, a lei prevê penalidades para o chamado pornô revenge.

Deepfake do quadro da Monalisa utilizando a tecnologia desenvolvida pela Samsung
Deepfake do quadro da Monalisa utilizando a tecnologia desenvolvida pela Samsung

O problema está na má utilização da tecnologia. A Samsung mostrou vários vídeos de quadros famosos conversando, e até mesmo a exposição Dalí Vive conseguiu colocar, através de inteligência artificial, o pintor conversando e tirando selfie com os visitantes. A tecnologia possui um potencial incrível, porém pode ser utilizada de má-fé pelos usuários.

Adicionar Comentário

Clique aqui para postar um comentário

Deixe uma resposta

Receba nossas notícias:
[widget id="jackmail_widget-2"]
Holler Box