OpenAI lança medidas para combater exploração sexual infantil no ChatGPT
Por João Melo |

A proteção de crianças e adolescentes na internet está cada vez mais em pauta ao redor do mundo, tendo, no Brasil, o ECA Digital como um dos principais pontos de virada. A inteligência artificial (IA) também está no centro desse debate, e a OpenAI apresentou uma estratégia para combater a exploração sexual infantil no ChatGPT.
- Não é só a 'Lei Felca': como o mundo avança na proteção de menores na internet
- Entenda por que Meta e YouTube foram condenadas por vício em redes sociais
O chamado Plano de Segurança Infantil foi divulgado por meio de um documento intitulado “Protecting Children in the Age of Generative AI” (“Protegendo Crianças na Era da IA Generativa”, em tradução livre) e oferece um roteiro prático para prevenir e interromper abusos que envolvem o uso da IA.
O plano estabelece prioridades para que a empresa e autoridades possam agir de forma coordenada, por meio de estratégias legais. Além disso, o documento propõe frentes de atuação operacionais e técnicas que ajudem as ferramentas a identificar riscos, otimizar respostas e apoiar a responsabilização dos envolvidos.
“Juntas, essas medidas permitem que o setor aborde a segurança infantil de forma mais precoce e eficaz. Ao interromper tentativas de exploração mais cedo, melhorar a qualidade dos sinais enviados às autoridades e reforçar a responsabilização em todo o ecossistema, essa estrutura visa prevenir danos antes que eles aconteçam e ajudar a garantir uma proteção mais rápida para as crianças quando surgirem riscos”, destacou a OpenAI em comunicado.
Modernização de leis para lidar com a IA
O Plano de Segurança Infantil da empresa liderada por Sam Altman é voltado aos Estados Unidos, e seu desenvolvimento contou com a participação de instituições como o National Center for Missing & Exploited Children (Centro Nacional para Crianças Desaparecidas e Exploradas) e a National Association of Attorneys General (Associação Nacional de Procuradores-Gerais).
Um de seus pilares é a modernização legislativa em nível estadual, que busca garantir que as leis voltadas à exploração sexual infantil online também sejam plenamente aplicáveis quando envolverem plataformas de IA.
Além de garantir que as leis incluam conteúdos gerados ou editados por IA, a proposta também visa responsabilizar e punir de maneira mais direta aqueles que produzem materiais com conteúdo de abuso sexual infantil.
Outra área prioritária do plano diz respeito à padronização e ao aprimoramento de sistemas de denúncia e relatórios, com a inclusão de dados sobre os infratores, o conteúdo da infração, localização e cronologia dos acontecimentos.
Esse mesmo pilar também defende o uso de recursos de IA para identificar padrões de exploração, de modo que essas informações sejam analisadas por humanos antes da formalização das denúncias. Os relatórios também devem fornecer contexto das interações dos suspeitos com a IA, evitando trechos isolados de conversas.
Melhores práticas de segurança
Um terceiro pilar do Plano de Segurança da OpenAI trata de ações e mecanismos que visam interromper tentativas de exploração por meio da geração de sinais de alerta e supervisão contínua do uso das ferramentas.
“Os sistemas de IA generativa criam oportunidades para intervir mais cedo no ciclo do dano, identificando tentativas de mau uso antes que o material abusivo seja produzido ou distribuído. Uma segurança robusta em IA generativa não é um controle único; é uma abordagem em camadas que combina aplicação de políticas, salvaguardas técnicas, monitoramento, operações de segurança infantil e supervisão humana”, ressalta a OpenAI.
O documento propõe diferentes estratégias de atuação neste campo, como:
- Detecção de prompts de alto risco e padrões comportamentais relacionados à exploração infantil;
- Implementação de mecanismos que recusem solicitações danosas quando houver indícios de intenção de produzir conteúdos nocivos;
- Classificação de materiais gerados por IA de modo a auxiliar na triagem de investigações;
- Monitoramento contínuo de riscos e padrões de mau uso, a fim de adaptar as medidas de segurança nas plataformas.