Já existe "antídoto" contra IA que gera falsos filmes pornôs de celebridades

Por Wagner Wakka | 15 de Junho de 2018 às 16h34

No final do ano passado, foi divulgada a criação de uma inteligência artificial capaz de gerar vídeos pornôs com imagens públicas de celebridades. A tecnologia causou polêmica sobre direito de uso de imagens, bem como falsidade ideológica e até o medo de que computadores pudessem criar produções indistinguíveis da realidade — o que acabou acontecendo de verdade.

A boa notícia é que, assim como há pessoas desenvolvendo tecnologias perigosas como esta, há também quem procura combater este tipo de ação. Pesquisadores da Universidade Estadual de Nova Iorque desenvolveram um método para detectar quando um vídeo foi gerado por uma tecnologia dessas.

O sistema dos pesquisadores é bastante simples. Eles perceberam que a inteligência artificial usa fotos estáticas e não vídeos para criar as imagens. Dessa forma, eles pegaram algumas características das fotos para conseguir identificar se aquele vídeo foi produzido por inteligência artificial.

Participe do nosso GRUPO CANALTECH DE DESCONTOS do Whatsapp e do Facebook e garanta sempre o menor preço em suas compras de produtos de tecnologia.

Por exemplo, são raras as fotos em que pessoas estão piscando ou respirando, ao contrário do que acontece em vídeos. Assim, o método consiste em varrer a mídia em busca de momentos de respiro e piscadelas. Caso não haja nenhum dos dois, ou ocorram muito menos que o normal, é possível que o vídeo tenha sido editado com fotos.

Atualmente, a plataforma do grupo de Nova Iorque trabalha com inteligência artificial apenas para reconhecer os momentos em que personagens piscam durante os filmes.

A técnica, aliás, pode ser usada também de forma manual, observando ambas características nas produções. O receio dos pesquisadores, contudo, é que, agora, os criadores de tais mecanismos de inteligência artificial passem a conseguir fazer piscadelas artificiais para enganar o reconhecimento. 

Para isso, os estudantes já estão planejando avançar a detecção para além do ato de piscar, incluindo ações como respiração e até pulsação como forma de reconhecer a criação artificial. Nem mesmo o mecanismo mais comum de criação de vídeos com imagens de celebridades, conhecido como DeepFakes, é capaz de reproduzir tais efeitos.

Leia o artigo científico completo aqui.

Fonte: The Next Web

Gostou dessa matéria?

Inscreva seu email no Canaltech para receber atualizações diárias com as últimas notícias do mundo da tecnologia.