IA Sora pode permitir criação de vídeos com nudez
Por Ricardo Syozi • Editado por Douglas Ciriaco |
O Sora, IA generativa para criar vídeos a partir de comandos de texto, está cada vez mais próximo. O novo modelo da OpenAI promete “simular o mundo físico em movimento”, mas já traz dúvidas sobre que tipo de conteúdo poderá gerar, a nudez sendo um dos principais pontos de preocupação. Porém, nem mesmo a diretora de tecnologia da empresa, Mira Murati, sabe realmente dizer as limitações da inteligência artificial.
- 10 IAs para criar vídeo a partir de fotos ou texto
- Sora | 10 vídeos incríveis e bizarros criados pela IA da OpenAI
Nudez no Sora preocupa
Quando perguntada pelo site The Wall Street Journal se o Sora vai permitir a criação de vídeos com nudez, Murati respondeu que não tinha certeza, mas adicionou que artistas poderiam usufruir disso em suas “configurações criativas”.
A executiva destacou que a OpenAI “trabalha com artistas e criadores de diferentes áreas para descobrir exatamente o que é útil e qual será o nível de flexibilidade do Sora”.
Se essa resposta parece não dizer muito é porque de fato ela não diz. Oficialmente, não há uma certeza se a IA vai ou não permitir o uso de nudez, o que é um tanto preocupante, pois há diversos casos de deepfakes pornográficos, que vão desde a famosa cantora Taylor Swift a pessoas comuns.
Especialistas costumam apontar que companhias como a OpenAI devem ser mais proativas nas regulações e deveriam trabalhar ao lado do governo estadunidense para inibir esse tipo de ação.
OpenAI tem que ser responsável pelo Sora
A simples ideia de liberar nudez no Sora já é o suficiente para incomodar qualquer entusiasta de tecnologia. Dar a liberdade para usuários criarem vídeos com potenciais pornográficos é assustador, tanto que países já se movimentam para aprovar leis na tentativa de coibir esse tipo de prática.
No Brasil, por exemplo, o Congresso votou um projeto de lei (PL) que visa aumentar a pena para infrações que utilizam IA contra mulheres. Como a proposta recebeu a aprovação da Câmara dos Deputados, ela vai para o Senado para ser avaliada e votada novamente.
Nos Estados Unidos, uma pesquisa de fevereiro pelo AI Policy Institute (AIPI) apontou que 77% dos eleitores acreditam que é mais importante oferecer segurança e proteção do que lançar um novo modelo de inteligência artificial.
Além disso, mais de dois terços ressaltaram que o desenvolvedor da tecnologia deve ser responsabilizado legalmente por qualquer atividade ilegal do modelo, como gerar vídeos falsos ou pornografia.
Vale apontar que a OpenAI disse que o Sora está em treinamento por especialistas em áreas como desinformação, conteúdo odioso e preconceito, e trabalha em ferramentas para detectar produções enganosas. O Sora ainda não tem data oficial para chegar, mas a desenvolvedora da tecnologia acredita que será ainda em 2024.
Fonte: WSJ