AGU tira do ar site gringo que comercializava deepfakes com pornografia infantil
Por Jaqueline Sousa • Editado por Jones Oliveira |

A Advocacia Geral da União (AGU) derrubou um site estrangeiro que comercializava deepfakes para produção de pornografia infantil. A ação ocorreu após uma notificação extrajudicial da Procuradoria Nacional da União de Defesa da Democracia (PNDD).
- Crimes online | 64% das denúncias são de abuso infantil — e IA só piora cenário
- PF investiga suspeito de “sextorsão” em combate ao abuso sexual infantil
O esquema foi exposto em uma reportagem do Núcleo em parceria com a AI Accountability Network do Pulitzer Center. A investigação identificou que o site vendia imagens falsas a partir do uso modificado de fotos verdadeiras de crianças, utilizando-as para produzir conteúdos pornográficos.
A publicação ainda revelou que esses materiais eram produzidos com a ajuda de inteligência artificial (IA), enquanto o site permanecia “escondido” na dark web para não ser detectado pelas autoridades legais. Foi nesse “espaço sombrio” da internet que as imagens foram comercializadas, circulando em fóruns.
Com a notificação da PNDD, a empresa reconheceu a irregularidade das publicações, retirando o site do ar.
O perigo dos deepfakes
Em tempos de inteligência artificial, os deepfakes se tornaram um perigo constante na internet, ameaçando a integridade dos envolvidos por modificarem vídeos, fotos e outros tipos de imagem apenas usando ferramentas de IA com código aberto.
Baseada em deep learning, a tecnologia consegue fornecer os meios para criação de imagens falsas que parecem extremamente realistas a partir do reconhecimento de padrões como movimentos, expressões faciais e até mesmo a voz de alguém.
O deepfake assusta justamente pela possibilidade de fazer com que pessoas façam ou digam coisas que, na vida real, nunca fizeram ou falaram. Logo, nas mãos de cibercriminosos, o recurso se transforma em uma arma eficaz para aplicar golpes, danificar reputações, disseminar notícias falsas na internet e criar conteúdos pornográficos que, na maioria das vezes, envolve crianças ou menores de idade.
Considerando que estamos em um período da era digital onde fica cada vez mais difícil identificar o que é real e o que foi produzido a partir de uma ferramenta de IA generativa, todo cuidado ainda é pouco. Desconfiar sempre é o primeiro passo para não cair em um golpe ou ser manipulado para acreditar em algo só porque um vídeo aleatório no seu feed está dizendo ou mostrando.
Vale lembrar ainda que, no Brasil, temos o Marco Legal da IA (PL 2.338/23), aprovado pelo Senado Federal em dezembro de 2024 e que segue em análise na Câmara dos Deputados. Mostrando que combater o problema não é uma ação apenas dos cidadãos, o projeto quer criar uma regulamentação para o uso de IA no país, garantindo uma maior segurança e transparência.
Leia também:
- O que é deepfake?
- Pesquisadores do Itaú criam método para combater golpes com deepfakes
- Campanhas de desinformação médica usam deepfakes de profissionais da saúde
Fonte: Governo Federal