Algoritmo é capaz de detectar vídeos manipulados por deepfakes

Por Felipe Demartini | 14 de Junho de 2019 às 12h58

Um grupo de pesquisadores de duas universidades da Califórnia, nos Estados Unidos, desenvolveu um algoritmo capaz de detectar manipulações em imagens feitas a partir da técnica de deepfakes. A ideia do estudo era criar um sistema de inteligência artificial que fosse capaz de identificar quando declarações de possíveis candidatos à presidência dos Estados Unidos, em eleição que deve acontecer no ano que vem, foram alteradas.

A pesquisa analisou os padrões de fala, comportamento e impressões faciais de alguns dos cotados à concorrerem ao cargo, como Donald Trump, Hillary Clinton, Elizabeth Warren e até mesmo Barack Obama. O objetivo era identificar trejeitos, maneirismos e outras características de suas falas reais para criação de um perfil biométrico que poderia ser usado na identificação de manipulações.

De acordo com os pesquisadores da Universidade da Califórnia, Berkeley e da Universidade Southern California, características como o movimento da cabeça, testas e narizes franzidos ou a pressão sobre os lábios ainda não podem ser reproduzidas por deepfakes. Tais elementos podem passar despercebidos por pessoas comuns, principalmente quando a manipulação é bem feita e associada a uma imitação fiel do político em questão, mas não passam pelo crivo do perfil biométrico.

Os algoritmos, inclusive, foram criados com inteligência artificial e deep learning, os mesmos métodos utilizados para a geração das próprias farsas. A questão é que, enquanto os deepfakes podem ser obtidos a partir de poder computacional disponível até mesmo em um celular, o sistema de verificação exige muito mais processamento e informação, tornando o trabalho de detecção bem mais difícil que o de manipulação.

Pesquisa analisa padrões de fala, maneirismos e detalhes faciais para detectar deepfakes de personalidades e políticos (Imagem: Reprodução/CNET)

De acordo com o estudo, uma das maneiras mais utilizadas pelos criadores de farsas desse tipo é a compressão, com vídeos renderizados em baixa qualidade como forma de esconder as falhas nas expressões dos retratados. Mesmo esse obstáculo, entretanto, pode ser ultrapassado pelo algoritmo dos pesquisadores. Entretanto, ele só se mostrou consistente quando o indivíduo filmado está falando diretamente à câmera e teve dificuldades para identificar rostos gravados ou quando o indivíduo desvia sua atenção.

Para o professor David Doermann, da Universidade de Bufalo, o desenvolvimento de soluções desse tipo é um jogo de gato e rato já que, na medida em que algoritmos são desenvolvidos para detectar os deepfakes, os manipuladores podem utilizar as mesmas conclusões para aprimorar a técnica e evitar essa descoberta. A afirmação foi feita durante uma audiência do comitê de inteligência do Congresso americano, que nesta semana também discutiu a questão como uma ameaça à democracia e direito de escolha dos cidadãos, na aproximação das eleições presidenciais de 2020.

E para nós, o que resta?

A técnica de deepfakes surgiu no ano passado, inicialmente sendo utilizada para colocar rostos de celebridades em vídeos pornográficos. Rapidamente, entretanto, ela evoluiu como uma possível arma de manipulação política, principalmente na aproximação de eleições presidenciais nos EUA e nos países da Europa. Ainda não existem indícios de destaque sobre esse recurso sendo utilizado no Brasil, mas levando em conta o nível da manipulação, isso parecer ser apenas uma questão de tempo.

O estudo das universidades americanas, entretanto, servem apenas para detectar os deepfakes de personalidades, uma vez que dependem de processamento avançado e, também, da alimentação com vídeos e informações reais. O problema é que a técnica de fraude está disponível para qualquer um, e cidadãos comuns não possuem o mesmo aparato legal nem amplitude de divulgação de Donald Trump ou Kim Kardashian para revelar uma farsa contra si.

De acordo com Rory Lynch, advogado britânico especializado em questões relacionadas à privacidade, restam aos reles mortais apenas as vias legais para se defenderem de manipulações desse tipo. Caso as imagens utilizadas para criação de fakes sejam íntimas, por exemplo, é possível processar por invasão de privacidade, enquanto ações de calúnia e difamação também podem ser abertas contra os autores dos vídeos.

Lynch também cita leis relacionadas a abuso, que podem levar casos desse tipo também à esfera criminal. O ideal para as vítimas, segundo ele, é buscar ajuda legal, principalmente caso o surgimento das manipulações leve a efeitos práticos que prejudiquem diretamente o retratado em um conteúdo desse tipo.

Fonte: CNET

Gostou dessa matéria?

Inscreva seu email no Canaltech para receber atualizações diárias com as últimas notícias do mundo da tecnologia.