Publicidade
Economize: canal oficial do CT Ofertas no WhatsApp Entrar

GitHub está banindo cópias do app DeepNude, que cria imagens falsas de nudez

Por| 09 de Julho de 2019 às 18h22

Link copiado!

Reprodução
Reprodução
Tudo sobre Microsoft

O GitHub está banindo projetos que usam código do DeepNude, aplicativo que causou polêmica no seu lançamento, no mês passado, por permitir a criação de fotos falsas de mulheres com a ajuda da inteligência artificial.

Segundo o GitHub, pertencente à Microsoft, o código viola as regras da companhia sobre conteúdos sexuais e obscenos. Com isso, diversos repositórios foram removidos, inclusive um desenvolvido pelo próprio criador do DeepNude.

Baseado em deepfakes, o aplicativo DeepNude usava fotos de mulheres vestidas e as deixavam nuas. Pouco tempo após o anúncio, a equipe de desenvolvimento do app precisou interromper do desenvolvimento e tirar a iniciativa do ar, pois poderia ser mal usado.

Continua após a publicidade

Mesmo depois de ter sido retirado do ar, algumas cópias do DeepNude ainda estavam disponíveis para download, inclusive no GitHub.

"A engenharia reversa do aplicativo já estava presente no GitHub. Não faz mais sentido esconder o código. O DeepNude usa um método interessante para resolver um problema típico de inteligência artificial, então pode ser útil para pesquisadores e desenvolvedores que estejam trabalhando em outros campos, como moda, cinema e efeitos visuais", conta a equipe do aplicativo.

As regras do GitHub dizem que conteúdo sexual e que não seja pornográfico pode fazer parte de projetos, ou ainda apresentado de forma educacional e artística. Plataformas de edição como o Photoshop já são usadas para criar imagens de mulheres nuas, algo que pode ser usado como difamação por pessoas mal intencionadas. Por isso, com o DeepNude, esta manipulação estaria ao alcance de qualquer pessoa de forma mais fácil, mesmo que ela não entenda de truques de edição.

Fonte: The Verge