Publicidade

Grok gera deepfakes sensuais sem consentimento no X e vira alvo de investigações

Por  | 

Compartilhe:
André Magalhães/Canaltech
André Magalhães/Canaltech

A nova ferramenta de edição de imagens da IA Grok, integrada ao X, está sendo usada para criar deepfakes sensuais sem consentimento, inserindo biquínis e poses sexualizadas em fotos de mulheres e crianças, o que gerou uma onda de reclamações na própria rede social.

A controvérsia ganhou ainda mais repercussão porque o próprio Grok, ao ser questionado por usuários, chegou a gerar respostas condenando a prática, pedindo desculpas e reconhecendo falhas de segurança. Essas mensagens, no entanto, não representam uma posição oficial da xAI, empresa de Elon Musk responsável pela tecnologia.

Procurada pela imprensa para comentar o caso, a xAI tem respondido com uma mensagem automática de apenas três palavras: “Legacy Media Lies” (“Imprensa tradicional mente”), repetindo uma estratégia já adotada pelo X, quando a plataforma respondeu a jornalistas com emoji de fezes.

Canaltech
O Canaltech está no WhatsApp!Entre no canal e acompanhe notícias e dicas de tecnologia
Continua após a publicidade

Países investigam deepfakes geradas pelo Grok

Com a repercussão das deepfakes sexualizadas geradas pelo Grok, autoridades de diferentes países iniciaram investigações contra a plataforma X e a tecnologia Grok.

No Brasil, a deputada federal Erika Hilton apresentou uma denúncia ao Ministério Público Federal e à Agência Nacional de Proteção de Dados, solicitando que a IA seja desabilitada no país até que a investigação seja finalizada.

Na França, os parlamentares Arthur Delaporte e Eric Bothorel acionaram o Ministério Público de Paris. A promotoria confirmou que o caso foi incorporado a uma investigação em andamento contra a plataforma, que também apura a disseminação de conteúdos antissemitas e de negação do Holocausto gerados pela mesma IA.

Na Malásia, a Comissão de Comunicações e Multimídia declarou ter recebido diversas queixas públicas sobre o uso indevido da IA no X e está investigando danos relacionados à manipulação digital de imagens de mulheres e menores de idade.

Já na Índia, o governo ordenou que a plataforma tome medidas imediatas para corrigir o Grok, com restrições à geração de conteúdo considerado obsceno, pornográfico ou ilegal. O X recebeu prazo para explicar quais ações serão adotadas, sob risco de perder proteções legais que limitam sua responsabilidade sobre conteúdos publicados por usuários.

O que fazer se for vítima de deepfake?

Continua após a publicidade

No Brasil, a criação ou divulgação de deepfakes sensuais sem autorização da pessoa retratada constitui crime. Além disso, em abril de 2025, foi sancionada a Lei Nº 15.125/2025 que aumenta a pena para casos de violência psicológica contra a mulher quando envolvem o uso de inteligência artificial, como na manipulação de imagens e vídeos.

Se for vítima desse tipo de conteúdo, o primeiro passo é registrar provas para abertura de um boletim de ocorrência. “Faça capturas de tela ou grave vídeos de todas as publicações, comentários e URLs onde o deepfake está sendo divulgado. Utilize ferramentas de timestamp para garantir a autenticidade e a integridade das prova”, orienta Antonielle Freitas, advogada especialista em Privacidade e Proteção de Dados do Viseu Advogados.

Com esse material em mãos, a orientação é registrar um boletim de ocorrência, que em muitos estados pode ser feito de forma online. A especialista Antonielle Freitas explica que o deepfake não consensual pode configurar diversos crimes, como difamação, falsa identidade, e, se houver intenção de expor a vítima, pode ser enquadrado como pornografia de vingança ou crimes contra a dignidade sexual.

Por fim, denuncie a publicação na plataforma e solicite a remoção do conteúdo. Além disso, é possível recorrer a serviços de contenção, como o Take It Down, que cria um identificador digital para impedir novos envios de imagens ou vídeos íntimos divulgados sem consentimento. “Embora não substitua medidas jurídicas ou denúncias diretas, o uso do "Take It Down" funciona como uma camada adicional de contenção, especialmente em casos em que há risco de compartilhamento continuado ou viralização”, explica Antonielle Freitas.

Continua após a publicidade

Confira outros conteúdos do Canaltech:

VÍDEO: IA de Musk gera polêmica com deepfakes. Até onde a IA pode ir sem invadir a privacidade?