Publicidade

Algoritmo é capaz de desmascarar deepfakes analisando o movimento dos olhos

Por| Editado por Douglas Ciriaco | 15 de Março de 2021 às 17h00

Link copiado!

VFXChris Ume/Reprodução
VFXChris Ume/Reprodução

Recentemente, um perfil focado em deepfakes tomou as redes sociais com cenas inusitadas protagonizadas pelo Tom Cruise — não o verdadeiro, mas um rapaz com face reconstruída por inteligência artificial para que se pareça com o famoso ator. Os resultados despertaram discussões relacionadas ao uso da tecnologia ao mesmo tempo que aceleraram o trabalho de pesquisadores que buscam meios para desmascarar esses vídeos.

Uma das opções nesse sentido é a criação de cientistas da Universidade de Buffalo, nos Estados Unidos. O projeto se trata de um algoritmo especial para análise de imagens, que foca nos reflexos dos olhos da pessoa presente no vídeo — detalhe ainda não representado com perfeição por deepfakes.

Continua após a publicidade

Os algoritmos de substituição facial podem ser bastante convincentes para o olho humano — ainda mais quando sujeito à compressão de vídeos publicados em redes sociais —, contudo, eles ainda não são tão eficientes na representação de reflexos nos olhos. De acordo com um estudo levantado durante a Conferência Internacional do Instituto de Engenheiros Eletricistas e Eletrônicos (IEEE), softwares que analisam imagens falsas a partir de reflexos apresentam 94% de precisão nas avaliações.

Isso se dá porque a córnea é uma “semiesfera quase perfeita e é muito reflexiva”, comenta Siwei Lyu, professor na SUNY Empire Innovation e um dos principais responsáveis pelo estudo. Segundo ele, toda luz emitida pelo cenário gera reflexos nas córneas, e a deficiência na precisão do deepfake entrega a montagem.

Além disso, o cientista complementa que ambos os globo oculares de um indivíduo apresentam uma semelhança bem evidente para o algoritmo. “Os dois olhos apresentam padrões de reflexo bem parecidos, visto que estão vendo a mesma coisa. Não é algo que nos damos conta quando observamos um rosto”, explica Lyu.

Em imagens que ilustram essa distinção entre olhos verdadeiros e olhos gerados por inteligência artificial, a pesquisa mostra que essas diferenças são bem gritantes, mas praticamente invisíveis para um espectador despreparado.

Continua após a publicidade

Os perigos do deepfake

Graças aos avanços nos seus estudos, o cientista chegou ao evento para levantar os perigos proporcionados pelos avanços do deepfake — que até agora foram utilizados para fins pornográficos ou recreativos, como o caso do perfil conhecido como @deeptomcruise do TikTok, que viralizou nas últimas semanas.

“Infelizmente, boa parte desses vídeos falsos foram criados para fins de pornografia e isso causou graves danos psicológicos às vítimas. Também há o potencial de gerar impacto político, principalmente de vídeos mostrando políticos falando ou fazendo alguma coisa que eles não deveriam fazer. E isso é ruim”, comentou Lyu.
Continua após a publicidade

A solução do professor, porém, não é perfeita. Apesar de apresentar 94% de precisão na análise de vídeos falsos, o sistema precisa que o integrante falso esteja olhando fixamente para a câmera e que seus olhos estejam visíveis para análise. O resultado é uma comparação da reflexão das córneas, ou seja, ambas não podem estar obstruídas para execução da análise; caso contrário, ela falhará.

Os estudos para a identificação de deepfakes continuará e, segundo Lyu, se tornam “constantemente mais importantes” em um mundo repleto de tensões entre raças e gêneros e sujeito aos perigos da desinformação. Portanto, o algoritmo de análise de imagens deve passar por retrabalhos constantes para sempre manter os vídeos fakes para trás e evitar que criadores mal intencionados gerem tumulto com conteúdo falso.

Fonte: Futurism, SciTechDaily