Deepfakes no Brasil | Parte 2: a ameaça fantasma de nossa democracia

Deepfakes no Brasil | Parte 2: a ameaça fantasma de nossa democracia

Por Rafael Rodrigues da Silva | 24 de Outubro de 2019 às 16h20
(Imagem: Reprodução/RenovaMídia)

Fake News, o grande mal da internet nos últimos cinco anos e que não deve sumir tão cedo. A popularização das redes sociais tornou esses lugares um terreno fértil para o surgimento e compartilhamento de notícias falsas e, com os avanços da tecnologia, tudo isso promete ficar ainda mais complicado com a chegada dos deepfakes.

Baseado em um relatório publicado pela WITNESS, uma organização global que apoia o uso de tecnologias audiovisuais para a defesa dos direitos humanos, iremos publicar uma série de reportagens especiais sobre fake news, o que são deepfakes, como elas podem ser usadas para complicar ainda mais um cenário já caótico e o que podemos fazer para nos proteger dessa nova tecnologia.

Na primeira parte do especial, falamos sobre o estado em que se encontram as fake news no Brasil em 2019, e nesta segunda parte iremos dar um foco maior às deepfakes, explicando o que elas são, como elas já estão sendo usadas e qual o perigo que elas representam para nossa democracia.

Quer ficar por dentro das melhores notícias de tecnologia do dia? Acesse e se inscreva no nosso novo canal no youtube, o Canaltech News. Todos os dias um resumo das principais notícias do mundo tech para você!

Entendendo deepfakes

Um deepfake, na prática, é um tipo de vídeo que, utilizando técnicas parecidas com efeitos especiais usados por Hollywood, insere digitalmente uma pessoa que originalmente não faz parte dele. A técnica mais usada para esse tipo de vídeo é a chamada “troca de cabeças”, que consiste do uso de uma “pessoa-origem” (a pessoa que você quer inserir no vídeo) e de uma “pessoa-destino”, cuja imagem será substituída pela da “pessoa-origem”. Assim, com o uso de softwares específicos que utilizam algoritmos de inteligência artificial (IA), é possível transferir o rosto da “pessoa-origem” para o corpo da “pessoa-destino” de forma que pareça que a “pessoa-origem” realmente faz parte do vídeo, com uma dose assustadora de realismo.

Essa é a mesma técnica usada, por exemplo, pelo diretor James Cameron no clássico Avatar para colocar o rosto dos atores Sam Worthington e Zoe Saldana nos gigantes azuis criados por computador.

A diferença é que, enquanto no final dos anos 2000, os programas que conseguiam fazer esse tipo de inserção digital necessitavam de máquinas extremamente avançadas (às quais apenas os mais modernos laboratórios de pesquisa e empresas de efeitos especiais tinham acesso). Mas com o avanços da computação, esses programas agora podem ser utilizados em computadores domésticos: basicamente, se você tem um PC Gamer que roda os jogos mais recentes, seu computador é bom o suficiente para usar os softwares de criação de deepfakes.

A técnica recebe o nome de deepfake por ser uma junção de “deep learning” (o tipo de algoritmo de IA utilizado para a criação dessas inserções digitais nos vídeos) e “fake” (“falso” em inglês). O termo também serve para criar uma maior contextualização do que realmente são esses vídeos, permitindo separá-los dos chamados “shallow fakes” (vídeos que usam ferramentas de pós-produção como o After Effects, mas que não usam a tecnologia de IA para fazer a substituição de rostos de forma que torne difícil identificar se é uma montagem) e das “dumb fakes” (vídeos onde pode até haver a troca de rostos, mas que a montagem é feita de maneira tão grotesca que fica evidente que se trata de uma edição tosca).

Para fazer essas montagens, o software usado para isso cria um modelo 3D do rosto que se pretende inserir no vídeo, e então utiliza diversas equações matemáticas para calcular “pontos de contato” entre o modelo o rosto da pessoa-origem e o da pessoa-destino, fazendo assim as modificações necessárias para se efetuar o “transplante” de rosto. Após esse processo, o programa roda um algoritmo “anti deepfake”, que faz a análise da transposição de rosto e marca os pontos onde essa transposição está mal-feita: ou seja, pontos onde fica claro que o olho humano consegue perceber que aquilo se tratou de uma montagem. O algoritmo de transposição então volta a trabalhar, ajustando esses pontos que foram marcados como problemáticos pela checagem, e esse processo se repete até que haja um equilíbrio entre ambos — até que o algoritmo de checagem não consiga mais detectar mais nenhum ponto problemático no vídeo.

Exemplo de deepfake do tipo troca de rostos, onde o rosto do ator Will Smith foi sobreposto no corpo de Keanu Reeves em uma cena de Matrix

Para que esses dois algoritmos consigam fazer seu trabalho de maneira adequada, é necessário que exista uma grande gama de “dados de treinamento” — ou seja, amostras de fotos e vídeo do rosto que se quer inserir no vídeo falso, pois quanto maior o número de amostras diferentes existentes sobre o mesmo rosto, mais pontos de comparação a IA terá para fazer a transposição, e mais real essa inserção digital será. É por isso que os principais alvos das deepfakes são políticos e celebridades, pois a natureza de suas profissões garante que haja uma enorme quantidade de fotos e vídeos públicos que podem ser usados para treinar a IA que irá desenvolver esses deepfakes.

Os usos da deepfake

Como toda tecnologia, o problema das deepfakes não é algo inerente delas, mas sim de como elas podem ser usadas. Isso porque essa tecnologia já é usada no cinema de inúmeras maneiras para permitir novos tipos de narrativas.

Por exemplo, o processo que permite rejuvenescer atores de maneira extremamente convincente (e que foi usado, por exemplo, em Samuel L. Jackson no filme Capitã Marvel e em Al Pacino e Robert de Niro no filme The Irishman, que deverá estrear na Netflix no final de novembro) usa uma tecnologia igual à das deepfakes, com a diferença de que, ao invés de inserir o rosto de outra pessoa no vídeo, insere-se o rosto do mesmo ator quando mais jovem — usando como base seus filmes mais antigos.

Já entre o público comum (ou seja, aquele que não trabalha nos estúdios de efeitos especiais de Hollywood), o uso de deepfakes começou a ganhar fama em 2017, primeiramente com o mesmo motivo que qualquer nova tecnologia é usada na internet: pornografia. Foi nessa época que um usuário do Reddit começou a utilizar a tecnologia de deepfakes para postar vídeos pornográficos falsos de celebridades, e desde então a técnica se tornou cada vez mais comum com o passar dos anos.

Outro emprego bem conhecido das deepfakes é em conteúdos humorísticos, e no Brasil um dos pioneiros neste tipo de uso é o humorista e YouTuber Bruno Sartori. Sartori utiliza as deepfakes basicamente de dois modos distintos: com o uso de dublês que fingem ser pessoas e celebridades reais, ou inserindo o rosto de políticos em vídeos musicais e de memes de forma a tornar aquilo engraçado. Um exemplo do uso de dublês pode ser visto no vídeo abaixo, onde o humorista utiliza um trecho do programa Tá no Ar, da Rede Globo, em que Marcelo Adnet faz uma imitação do presidente Jair Bolsonaro, e insere digitalmente o rosto do próprio Bolsonaro no vídeo — mas em um trecho onde é claramente possível ver que se trata de uma piada e que não tenta em nenhum momento enganar quem assiste.

Um exemplo do segundo tipo de uso pode ser encontrado neste outro vídeo do mesmo humorista, onde ele insere o rosto do ex-presidente Lula na corpo da cantora Mariah Carey no clipe da música Obsessed, brincando com o fato do atual presidente sempre dar um jeito de enfiar o Lula em qualquer crítica que fazem de seu governo.

No programa Greg News, da HBO, Sartori utilizou o algoritmo de deepfakes para fazer uma chamada ao vivo se passando como Ser Gilmoro (uma caricatura do ministro Sérgio Moro) para falar sobre a “Invasão hacker” de seu celular. Programas no formato do Greg News possuem um longo histórico de imitadores de políticos e celebridades que participam das gravações com o objetivo de se fazer piada com algum fato que está dominando toda a imprensa, mas a participação de Sartori mostra como a tecnologia de deepfakes pode ser usada para elevar esse tipo de piada a outro nível.

Mas, apesar de usar bem as deepfakes com políticos e figuras públicas, Sartori não pode ser considerado um criador de fake news, e o motivo é bem claro: não há, em nenhuma parte do trabalho dele, a intenção de se enganar quem está assistindo para achar que aquilo é verdade. Todos os usos que o humorista faz da tecnologia são caricatos e devidamente exagerados, ficando bem claro que aquilo se trata de uma paródia humorística.

Deepfake e fake news

É preciso deixar isso bem claro porque nenhuma das técnicas usadas para se criar fake news são antiéticas por si só: é possível criar histórias inventadas que utilizem pessoas públicas e reais sem isso ser uma teoria da conspiração, e é possível criar memes e usar a deepfakes para criar vídeos humorísticos com políticos. A diferença está exatamente na intenção: se você inventa uma história sobre supostas tensões sexuais existentes entre dois políticos, isso é uma fanfic; agora, se você compartilha essa mesma história inventada tirando-a de seu contexto de fanfic e vendendo-a como se fosse uma revelação feita por um jornalista que “sabe toda a verdade”, essa mesma história se torna uma notícia falsa. E o mesmo é real para as deepfakes: criar um discurso absurdo em vídeo se inserindo um rosto de um político não é um problema em si, desde que você deixe claro que isso se trata de uma montagem feita com objetivos humorísticos.

Por exemplo, o vídeo de Sartori baseado no programa Tá no Ar poderia facilmente se tornar uma fake news se alguém mal intencionado o retirasse de seu contexto humorístico, e começasse a compartilhá-lo no WhatsApp falando se tratar de um vídeo filmado do atual presidente Jair Bolsonaro durante uma visita dele enquanto capitão do Exército a um bairro de baixo poder aquisitivo do Rio de Janeiro. A partir do momento que ele fosse descontextualizado, o vídeo passaria a se tornar fake news mas, mesmo assim, Sartori ainda não seria o culpado por criá-lo. Isso porque o humorista criou esse vídeo e deixou claro o objetivo dele; assim, se algum dia ele vier a ser usado para espalhar uma história falsa nas redes sociais, o culpado não será o humorista, mas a pessoa que tirou o vídeo de seu contexto e inventou uma nova história sobre a existência dele.

É importante deixar claro que nem sempre o aparente autor da “fake news” é o verdadeiro culpado. E por isso o trabalho de sites de fact checking é tão importante, pois são eles que irão investigar se algo foi mesmo feito com o objetivo de enganar o público ou se a intenção da obra é outra e ela foi na verdade tirada de contexto por alguém que tinha a intenção de enganar o público por objetivos políticos.

Perigos das deepfakes

Ainda que essa tecnologia possa ser usada para levar a um outro nível as paródias humorísticas e os filmes de Hollywood, os problemas que as deepfakes podem causar na sociedade são muitos e bem claros.

O primeiro tem a ver com o mesmo motivo que tornou as deepfakes tão populares: pornografia. Assim como já existem filmes pornográficos falsos criados com o rosto de centenas de celebridades, é possível criar esses tipos de vídeos com qualquer pessoa — principalmente em uma época onde, cada vez mais, compartilhamos nossa vida em fotos e vídeos nas redes sociais, o que garante uma enorme quantidade de dados com potencial de alimentar uma montagem de qualidade.

E isso já acontece: já existem hoje na internet fóruns e repositórios dedicados para esse tipo de coisa, onde você pode enviar fotos e amostras de vídeo de qualquer pessoa (sua crush, sua chefe, sua professora, sua ex-namorada ou até mesmo sua mãe) para se criar um vídeo pornô falso. O que mais preocupa nessas iniciativas é o sexismo envolvido: todos esses fóruns e repositórios são focados em criar apenas vídeos sexuais de mulheres, e não aceitam pedidos para a criação de deepfakes pornográficas masculinas.

A existência desses lugares então se torna mais um motivo de preocupação para as mulheres de todo mundo, que além de todos os problemas que já enfrentam com relação a assédio e ao mercado de trabalho, precisam se preocupar com a possibilidade de existirem vídeos pornôs falsos com sua imagem, sendo espalhados em grupos de WhatsApp — seja por ex-namorados que não aceitam o término ou mesmo “admiradores secretos” que criam esses vídeos para satisfazer seus próprios fetiches.

Outro ponto desse uso das deepfakes para a pornografia que já existem exemplos da tecnologia sendo usada para motivos políticos. Um dos casos mais famosos aconteceu no ano passado na Índia com a jornalista Rana Ayyub. Após a divulgação do caso do estupro de Kathua — uma menina de 8 anos que vivia na aldeia foi raptada, estuprada durante quase uma semana por quatro homens adultos, e então assassinada. Durante a apuração do caso, a liderança do partido BJP (partido de extrema direita da Índia e que defende ideais de supremacia hindu) partiu em defesa dos homens acusados do crime, alegando que aquilo era uma perseguição apenas por serem hindus — e ignorando que uma perícia conseguisse provas. Assim, Rana Ayyub foi uma das únicas figuras da imprensa que se colocou contra o partido (que hoje possui a maior parte das cadeiras do Congresso indiano e o apoio do primeiro-ministro Narendra Modi) e, em uma tentativa de silenciá-la, o BJP teria criado um vídeo pornô falso da jornalista utilizando técnicas de deepfake.

Ainda que não existem provas contundentes de que o deepfake pornográfico foi uma criação do BJP, existem vários indícios de que isso seja verdade. Por exemplo, quem alertou Rana sobre a existência do vídeo foi um próprio membro do partido que se sentiu incomodado com a tática. Quando esse membro alertou a jornalista sobre a existência do vídeo, ele ainda estava sendo compartilhado apenas nos grupos de WhatsApp dos membros do BJP, mas horas depois, a própria página oficial do Facebook do líder do BJP compartilhou o vídeo na rede social, o que deixou claro que, mesmo que o conteúdo não tenha sido criado dentro do partido, ele não só apoiava a criação como ainda o compartilhamento deste conteúdo como forma de tirar a credibilidade e silenciar um adversário político.

Caso João Dória

Uma história parecida aconteceu também aqui no Brasil, durante as eleições do ano passado. Alguns dias antes da eleição para governador, o então candidato João Dória também foi vítima de um vídeo deepfake, onde ele aparece em uma orgia sexual. Apesar do conteúdo explícito ter sido amplamente compartilhado pelas redes sociais, o vídeo acabou não tendo qualquer impacto para Dória, que foi eleito como governador e, apenas um ano depois, a população praticamente esqueceu da existência desse deepfake — ao contrário de Rana Ayyub, que ainda precisa ficar se defendendo de trolls que a todo momento a relembram do vídeo falso de sexo feito com a imagem dela.

Há ainda a preocupação de como as deepfakes podem atrapalhar o papel de ativistas e ONGs que atuam em locais de risco, como por exemplo os morros do Rio de Janeiro. Por exemplo, desde o ano passado, Raull Santiago, ativista do Coletivo Papo Reto (coletivo de comunicação composto por jovens do Complexo do Alemão e do Complexo da Penha), vem sendo alvo de perfis e páginas falsas criadas no Facebook e no Twitter que se passam por ele e tentam prejudicar a reputação do ativista dentro do território onde ele trabalha. Esse tipo de desinformação já consegue afetar negativamente o trabalho do rapaz, mas um deepfake poderia colocá-lo em sério risco de vida — pois a tecnologia permitiria criar um vídeo que o coloque como “inimigo” dos traficantes ou dos policiais, tornando-o um alvo fácil.

Jornalista Ran Ayyub, que foi vítima de deepfakes como forma de silenciá-la após tomar uma posição que contrariava o governo indiano (Imagem: via perfil do Facebook da jornalista)

Esse é o verdadeiro terror das deepfakes atualmente, pois elas conseguem criar campanhas de difamação, silenciamento e descrédito. Imagine só: se hoje, apenas compartilhando a foto de alguém e um texto falando que a pessoa se trata de um abusador de crianças, sem qualquer outra prova, já é o suficiente para fazer com que essa pessoa se tornem alvo da população (como aconteceu no ano passado na cidade de Acatlán, no México, onde dois homens inocentes foram linchados e queimados pela população por causa de fake news do WhatsApp), imagine se, com a mesma facilidade que você consegue escrever um texto, também for possível criar um vídeo onde essas pessoas estão praticando o ato da qual são acusadas?

As deepfakes ainda não são um grave problema em nossa sociedade, mas é preciso dar muita ênfase ao “ainda”. Por isso é importante não apenas divulgar sobre a existência da tecnologia e seu uso malicioso, mas também ensinar a população algumas formas simples de descobrir se o vídeo que estão vendo é ou não uma montagem.

Na terceira e última parte desse especial, iremos indicar algumas formas de reconhecer um deepfake e o que deve ser feito para se conscientizar a população sobre isso.

Gostou dessa matéria?

Inscreva seu email no Canaltech para receber atualizações diárias com as últimas notícias do mundo da tecnologia.