Publicidade

Fotos sensuais geradas por IA foram vendidas no Reddit

Por  • Editado por  Douglas Ciriaco  | 

Compartilhe:
Reprodução/Reddit
Reprodução/Reddit

O Reddit virou um ponto de venda de imagens com conteúdos sexuais gerados por inteligência artificial: em áreas voltadas para o público adulto, publicações contendo imagens eróticas geradas por IA se proliferam em velocidade impressionante. No serviço de fóruns, pessoas se valem do anonimato para a comercializar muita coisa — e também para enganar os desavisados.

A ideia é criar conteúdos pornográficos falsos porém realistas de pessoas que não existem. Os “nudes” fakes têm a vantagem de não possuir autoria, então podem ser comercializados livremente sem nenhum tipo de controle ou autorização. Muita gente acaba caindo no golpe porque não consegue distinguir a falsidade da foto.

Canaltech
O Canaltech está no WhatsApp!Entre no canal e acompanhe notícias e dicas de tecnologia
Continua após a publicidade

No Reddit, a regra válida é uma só: crie sua própria arte com alguma IA e venda para quem está interessado nela. É uma alternativa "mais aceitável" diante da criminosa pornografia com deepfake, que se popularizou na última década e gerou imensos problemas jurídicos, mas tem causado muita dor de cabeça nos compradores enganados.

É possível encontrar praticamente de tudo nos fóruns, desde de grupos de modelos artificiais em poses sensuais até coisas mais bizarras, como mulheres adultas usando fraldas. Os compradores, em sua maioria, sabem que as imagens são falsas e compram assim mesmo, porém há uma parcela considerável que o faz por desconhecimento.

Usuários enganados pelo pornô fake

Segundo a revista Rolling Store, vários compradores se queixaram por terem sido enganados com imagens eram falsas. Claudia, uma suposta modelo erótica que vendia seus nudes, na verdade é fruto da geração de imagens adultas da plataforma Stable Diffusion.

Segundo a publicação, a conta de Claudia é administrada por dois estudantes de ciência da computação. Eles teriam começado o projeto por brincadeira e viram potencial para lucrar com isso de uma maneira nada honesta: a dupla alega ter faturado cerca de US$ 100 ao vender as imagens para desavisados no Reddit.

Quando descobriram a verdadeira identidade de Claudia, ela acabou sendo taxada como um dos fakes do Reddit, mas já era tarde demais. “Você poderia dizer que essa conta é apenas um teste para ver se as pessoas podem ser enganadas com imagens de IA. Sinceramente, não achamos que teria tanta atenção", explicaram os alunos, que preferiram não se identificar.

Tendência no mercado de conteúdo adulto

Continua após a publicidade

Essa era uma tendência que já tinha sido observada no início do ano, quando ferramentas de geração de imagens a partir de modelos de IA se popularizaram. Muitos usuários começaram a criar, de brincadeira, imagens hiper-realistas de homens e mulheres, abrindo brecha para possível comercialização em sites como OnlyFans.

Agora, os criadores provavelmente decidiram migrar para o Reddit por sua política mais liberal quanto ao assunto. Moderadores parecem estar mais atentos e marcam qualquer publicação com conteúdo suspeito para evitar novas vítimas. No OnlyFans, os artistas precisam comprovar a autenticidade das modelos, o que obviamente seria impossível em material gerado por IA.

Fato é que plataformas que lidam com conteúdo sexual, explícito ou não, precisarão redobrar as técnicas de verificação para evitar problemas como esse. Com as IAs cada vez mais otimizadas, é provável que surjam mais artes fake, além de vídeos e áudios.

Em março, usuários do chatbot Replika reclamaram após a empresa responsável banir as interações adultas, por fugir do propósito inicial da ferramenta. A IA era capaz de conversar sobre temas sexuais, fazer videochamadas e até enviar nudes para os usuários. Após a polêmica, a companhia retrocedeu na decisão e colocou a funcionalidade de volta ao robô.

Continua após a publicidade

Fonte: Rolling Stone