Violência, deepfake com celebridades mortas e stalker — o lado sombrio do Sora 2
Por João Melo • Editado por Melissa Cruz Cossetti |

Lançado no final de setembro de 2025 com recursos do Sora 2, o aplicativo Sora oferece aos usuários a possibilidade de gerar vídeos com inteligência artificial (IA) e publicá-los em um feed semelhante ao do TikTok. No entanto, relatos de conteúdos violentos, deepfakes de celebridades falecidas e uso indevido por stalkers revelam o lado sombrio do app.
- OpenAI recua e promete dar controle aos detentores de direitos autorais no Sora
- Criador de vídeos da OpenAI está mais realista, gera áudios e tem app próprio
- "Momento Sora" é marcado por violações de direitos autorais, deepfake e confusão
Quando foi anunciado, a OpenAI destacou que o Sora integrava diversos recursos voltados a bloquear conteúdos considerados inseguros ou prejudiciais antes mesmo de sua publicação.
“Isso inclui restrições a conteúdo sexual, violência gráfica envolvendo pessoas reais, propaganda extremista, discurso de ódio e qualquer material que promova automutilação ou transtornos alimentares”, informou a empresa em comunicado.
Mesmo assim, pouco tempo após o lançamento, já circulam na internet vídeos que parecem ter driblado alguns mecanismos de proteção da plataforma.
Violência contra Stephen Hawking
Vídeos produzidos com o Sora e compartilhados em outras redes sociais, como o X (antigo Twitter), mostram o físico teórico Stephen Hawking sendo violentado em diversas situações.
O cientista morreu em 2018 em decorrência de uma doença do neurônio motor chamada esclerose lateral amiotrófica (ELA), que o levou a utilizar uma cadeira de rodas desde o fim da década de 1960.
Um dos conteúdos mostra o físico sendo agredido dentro de um ringue por um lutador de UFC. Outras publicações geradas por IA colocam Hawking em apresentações de luta livre, sendo pisoteado por um touro e até mesmo atacado por um crocodilo.
Além de violentos, esses conteúdos levantam dúvidas sobre as proteções do Sora contra o uso de imagens de pessoas já falecidas na geração de vídeos — tema sobre o qual a OpenAI ainda não se posicionou oficialmente.
Até o momento, a empresa informou apenas que imagens de celebridades e figuras governamentais não podem ser utilizadas sem consentimento, a menos que elas mesmas façam o upload e autorizem o uso.
Deepfakes de outras celebridades mortas
Além de Hawking, imagens de diversas outras celebridades falecidas estão sendo usadas para criar vídeos de IA no aplicativo. Uma delas é o ator e comediante Robin Williams.
Os vídeos chegaram até sua filha, Zelda Williams, que publicou um desabafo em sua conta oficial no Instagram sobre o uso indevido da imagem do pai.
“Por favor, parem de me enviar vídeos do papai feitos com IA. Parem de acreditar que eu quero ver ou que vou entender, eu não quero e não vou entender”, escreveu Zelda nos stories.
Na sequência, ela criticou o uso da tecnologia, afirmando que conteúdos que reciclam o passado para gerar uma “centopeia humana de conteúdo” não podem ser chamados de futuro.
“Você não está fazendo arte; está fazendo salsichas nojentas e superprocessadas com a vida de seres humanos, com a história da arte e da música, e depois enfiando-as goela abaixo de outra pessoa, na esperança de que ela te dê um joinha e curta. Que nojo”, enfatizou Williams.
Outra personalidade que aparece em vídeos criados no Sora é Richard Nixon, ex-presidente dos Estados Unidos. Ele se enquadraria nas restrições impostas pelo aplicativo a figuras governamentais, mas aparentemente o mecanismo não se estende a pessoas já falecidas.
Também circulam na internet vídeos com interações entre artistas mortos, como Elvis Presley cantando com Marilyn Monroe. O rapper Tupac Shakur também aparece em conteúdos ao lado de Michael Jackson, The Notorious B.I.G. e até do ativista norte-americano Malcolm X.
App da OpenAI usado para perseguição e assédio
Os recursos do Sora também estão sendo utilizados por um stalker da jornalista Taylor Lorenz, responsável pela newsletter User Magazine. Em um relato publicado no X, ela afirmou que um “perseguidor psicótico” foi convidado para testar o app e vem gerando vídeos de IA com sua imagem.
“Ainda bem que o Sora tem a opção de bloquear e excluir conteúdo não aprovado com a minha imagem. Este é um homem perigoso que administra centenas (sim, centenas) de contas dedicadas a mim”, escreveu a jornalista.
Lorenz afirmou que a IA está “alimentando os delírios” do seu perseguidor, acrescentando que ele já contratou fotógrafos para vigiá-la, aparece em eventos de que participa e se passa por amigos e familiares para obter informações pessoais.
Casos como o de Lorenz, somados ao uso indevido da imagem de personalidades falecidas, mostram que o aplicativo da empresa referência em IA ainda carece de mecanismos eficazes de moderação e controle de conteúdo.
Leia mais:
- Pesquisadores questionam como aplicativo do Sora se encaixa na missão da OpenAI
- 5 dicas para você identificar se um vídeo foi gerado por Inteligência Artificial
- 4 comerciais brasileiros que usaram IA para emocionar na TV ou na internet
VÍDEO | Você sabe IDENTIFICAR um DEEPFAKE?