Adobe apresenta suas ferramentas para combater onda de deepfakes

Adobe apresenta suas ferramentas para combater onda de deepfakes

Por Alveni Lisboa | Editado por Douglas Ciriaco | 04 de Julho de 2022 às 18h30
Adobe

A Adobe pode lançar futuramente um recurso de identificação de autoria e autenticação de conteúdo digital para combater a recente onda de deepfakes nocivos. O projeto é chamado Iniciativa de Autenticidade de Conteúdo (ou Content Authenticity Initiative, em inglês) e existe há três anos, com foco em parceiros do setor de mídia e tecnologia. O objetivo é criar uma trilha para descobrir quem foi o responsável por produzir um determinado vídeo ou imagem, bem como identificar alterações feitas.

A premissa é similar aos populares tokens não fungíveis (NFTs) que existem atualmente. Assim como o NFT tem um dono e pertence a uma coleção, cada mídia criada nos softwares de edição teria uma impressão digital do autor.

A Adobe tenta criar mecanismos para identificar os autores da imagem e evitar deepfakes (Imagem: Reprodução/Adobe)

Segundo reportagem da revista Forbes, este é o segmento que mais tem recebido atenção da Adobe nos últimos anos. Foi também a área que apresentou mais crescimento, já que existe a necessidade real de combater a situação de alguma maneira.

A Adobe montou um esforço para reinventar todos os seus produtos usando inteligência artificial e técnicas de aprendizado profundo (deep leaning) — uma iniciativa conhecida internamente como “AI First”. A ideia é não somente criar essas pegadas digitais, mas também facilitar as demoradas edições do Photoshop para ajudar na execução de tarefas simples, como trocar o fundo ou excluir pessoas indesejadas de uma foto.

Recurso ajudaria a identificar o deepfake

A Adobe luta para combater um mal que ela mesmo ajudou a criar indiretamente: o deepfake. A fabricante dos softwares de edição de fotos e vídeos mais populares do mundo enfrenta o dilema de lutar contra recursos vistos como trunfo em um passado não muito distante.

O deepfake é uma técnica de criação de vídeos falsos com um realismo que pode confundir qualquer pessoa. Rostos, expressões faciais, corpos e até vozes podem ser recriadas para ficarem idênticas a das vítimas. A coisa é tão séria que nem inteligências artificiais avançadas são capazes de identificar montagens muito bem feitas.

A companhia tem trabalhado para redesenhar seu mix de produtos usando inteligência artificial e técnicas de aprendizado profundo, mas sem descuidar da segurança. O Photoshop e o Premiere Pro seriam os maiores focos, porque são parte importante das técnicas de deepfake. Os dois produtos, somados ao Illustrator e Acrobat, corresponderam a 73% da receita da empresa em 2021, daí a necessidade de se manter relevante sem abrir mão das IAs.

Deepfake em crescimento

O dilema é porque as manipulações deixaram de ser usadas apenas para brincadeiras e passaram a ser empregadas com viés político-partidário. Montagens de personalidades dizendo algo absurdo ou contrariando suas ideologias se tornam cada vez mais comuns, o que pode ter efeitos desastrosos em democracias, principalmente em período eleitoral.

Recentemente, um exemplo claro da prática: um perfil se passa pela atriz Margot Robbie no TikTok. Os vídeos são voltados para o entretenimento e não atacam a artista, mas poderiam ser eventualmente usados para esta finalidade, tendo em vista o realismo dos conteúdos.

@unreal_margot I like the last one. And you? #margotrobbie #movies #viral #fyp ♬ original sound - Unreal Margot Robbie

Ao mesmo tempo em que precisa se reinventar para combater os rivais, como o Canva, a Adobe precisa ter cautela no uso das IAs de otimização de imagens. Segundo o conselheiro geral e diretor de confiança da Adobe, Dana Rao, as ferramentas podem fazer algo falso se tornar extremamente real.

Rao diz ter se reunido com o diretor de produtos da empresa, Scott Belsky, três anos atrás para tratar deste assunto. “Estávamos analisando todas as inovações que tínhamos na edição de IA, e ambos tivemos o mesmo pensamento ao mesmo tempo: muito em breve, porque a IA pode ser mais poderoso do que a edição humana, você não será capaz de distinguir fato de ficção, realidade de realidade artificial", explicou na entrevista concedida à Forbes.

Conteúdos falsos e a viralização

A ferramenta de autenticidade poderia minimizar esse problema, mas será que os criminosos não conseguiriam burlar o sistema? Ainda que isto não ocorra, estariam os políticos interessados em saber se um vídeo do candidato rival é falso antes de compartilhá-lo nas redes sociais?

A onda de fake news no Brasil e no mundo mostra que não. É melhor postar algo falso e depois pedir desculpas, somente se a fraude for desmascarada, do que perder a oportunidade de atacar algum desafeto. Vale lembrar que a legislação mundial tem avançado para punir não somente os autores das mentiras, mas responsabilizar o consumidor pela disseminação em redes sociais ou apps de chat.

Em que pese o trabalho jornalístico de apuração, no fim das contas, deve cair no colo das pessoas a obrigação de buscar a verdade. A Adobe faz a parte dela, o Canaltech faz a parte dele, mas o usuário também precisará fazer o dever de casa, caso contrário o mundo poderia virar uma imensa Matrix.

Fonte: Forbes  

Gostou dessa matéria?

Inscreva seu email no Canaltech para receber atualizações diárias com as últimas notícias do mundo da tecnologia.