Publicidade

Deepfake, fake news e mais: como a IA pode arruinar as eleições

Por  • Editado por Douglas Ciriaco | 

Compartilhe:
Reprodução/TSE
Reprodução/TSE

Você está em uma rede social em pleno ano eleitoral e de repente dá de cara com um vídeo de um candidato desferindo injúrias contra o adversário e seus eleitores. Contudo, apesar de ser escandaloso, não se trata da pessoa em si falando e sim um deepfake gerado por inteligência artificial (IA) para minar a reputação do político.  

Esse é um exemplo fictício, mas baseado na realidade. No começo de 2024, uma ligação falsa com a voz do presidente dos Estados Unidos e candidato à reeleição, Joe Biden, surpreendeu os moradores de Nova Hampshire. Durante o telefonema, os eleitores eram estimulados a não participar das primárias, pois deveriam “poupar” o voto para novembro.

Por outro lado, essa não é a primeira vez e possivelmente não será a última: com o avanço da IA generativa nos últimos anos, impulsionada pelo sucesso do ChatGPT, as edições para falsificar gravações de voz e vídeos tendem a ganhar ainda mais destaque entre as disputas políticas — o que pode mudar e até arruinar o cenário das eleições do Brasil e outros países em 2024.

Canaltech
O Canaltech está no WhatsApp!Entre no canal e acompanhe notícias e dicas de tecnologia
Continua após a publicidade

Os deepfakes estão por toda parte

Ao Canaltech, a sócia da Daniel Advogados, Paula Rodrigues, lembra de outros usos de deepfakes nas eleições que deram o que falar nos últimos tempos. Entre eles, o vídeo compartilhado nas redes sociais durante a eleição do ano passado pelo atual presidente da Argentina, Javier Milei, que mostrava o candidato rival Sergio Massa consumindo drogas.

Mesmo chocante, tudo não passou de uma armação. “Em investigações, apurou-se que o vídeo foi manipulado ao terem sobreposto o rosto de Sérgio Massa ao da pessoa que está no vídeo”, explicou a advogada.

As gravações falsas também são exploradas em contextos ainda mais críticos, como a Guerra na Ucrânia, conforme apontado pelo advogado especialista em direito digital do Abe Advogados, Marcelo Cárgano.

“Um caso extremamente preocupante ocorreu em 2022, já dentro do contexto da invasão russa na Ucrânia, no qual o presidente ucraniano Volodymyr Zelensky aparecia dizendo aos soldados em um vídeo falso para deporem as armas e se renderem”, conta. “Este caso demonstra o potencial e o perigo de deepfakes serem usados como um meio de guerra para semear pânico e confusão na população adversária.”

Também no Brasil

Os casos de falsificação também atingiram políticos brasileiros, incluindo o atual presidente Lula (PT) e o ex-presidente Jair Bolsonaro (PL). Segundo Rodrigues, em 2022, um suposto vídeo da apresentadora Renata Vasconcellos mostrava uma falsa pesquisa de intenção de votos, que inverteu o resultado verdadeiro divulgado em uma edição do Jornal Nacional.

Continua após a publicidade

O prefeito de Manaus (AM), David Almeida (Avante), também teve sua voz emulada em um áudio falso com ofensas a professores. “Diante da denúncia feita pelo próprio prefeito e da suspeita da ocorrência de crime eleitoral, a Polícia Federal realizou uma operação denominada ‘Nirmata’, cumprindo mandados de busca e apreensão para seguir nas investigações”, disse a sócia do Daniel Advogados.

Cárgano também lembra de outro vídeo que mostrou Lula, na época candidato à presidência, bêbado em uma entrevista. Apesar de não ser exatamente um deepfake, pois era apenas um vídeo editado com a velocidade mais lenta, o caso chama a atenção para o potencial destrutivo mesmo das manipulações mais simples.

Mais desinformação 

Com os exemplos do passado e o avanço de sistemas de IA generativa do presente, há ainda mais preocupação com o futuro. Especialmente ao considerar o potencial que essas manipulações trazem para a proliferação de desinformação, mesmo que esses efeitos tenham surgido muito antes de se falar em um uso mais aberto da inteligência artificial.

Continua após a publicidade

“Preocupações com a veracidade de fotografias remontam ao século XIX, coincidindo com os primórdios da tecnologia”, observou o especialista de direito digital. “O que é efetivamente novo é que tecnologias como IAs generativas diminuem drasticamente os custos de produção desse tipo de conteúdo.”

Ou seja, esse cenário pode dar mais tração ao que já aconteceu nos anos anteriores. É o caso da tentativa de manipular a opinião pública através de conteúdo falso ou enganoso, a fim de prejudicar um candidato adversário ou até mesmo amplificar a polarização entre os eleitores.

Outra preocupação em destaque, segundo o advogado, é em relação à dificuldade de distinguir o que é verdadeiro ou falso. “A divulgação e disseminação de deepfakes também traz o risco do oposto, isto é, de conteúdo verídico sendo descartado ou desqualificado como falso por seu autor ou apoiadores”, explicou. “Afinal, como conseguiremos nos comunicar e viver em sociedade se não houver um consenso mínimo sobre o que é real?”

A apreensão é compartilhada pela Head da área de Direito Digital e Proteção de Dados do Machado Meyer Advogados, Juliana Abrusio: “A massificação no acesso à IA generativa, somada à facilidade de gerar qualquer tipo de conteúdo, inclusive os falsos, têm forte impacto sobre o consumo das informações por parte dos cidadãos”, afirmou ao Canaltech. “Essa situação, inclusive, desvirtua a verdade sobre fatos e candidatos, e por conseguinte, isso afeta, diretamente, a nossa Democracia.”

Continua após a publicidade

Cuidado com a segurança

No entanto, esse não é o único risco em jogo: em um cenário eufórico, onde todos estão com os nervos à flor da pele, outros tipos de ameaças vêm à tona, como os avanços de cibercriminosos que aproveitam a situação para difundir golpes de phishing e engenharia social.

Quem dá o alerta é o gerente de Engenharia de Segurança da Check Point Software Brasil, Fernando de Falchi. Segundo o especialista em segurança digital, o momento pode ser explorado por cibercriminosos para distribuir deepfakes, desinformação e conteúdo falso para golpes de roubo de credenciais, de identidade e outros dados, roubo de dinheiro e, ainda, realizar ataques de ransomware.

“Tudo isso aponta para um jogo duplo, ou seja, o cibercrime tanto poderá disseminar um vídeo falso ou uma mensagem de voz falsa como uma fake news sobre um candidato, como também tentará induzir a pessoa a acessar o link que infectará seu smartphone ou notebook”, observou”.

Continua após a publicidade

IA liberada, mas com parcimônia

Diante de tamanha preocupação, as autoridades começaram a se mobilizar para evitar o pior. O Tribunal Superior Eleitoral (TSE), no final de fevereiro, aprovou uma resolução de forma unânime com regras para o uso de inteligência artificial durante as eleições.

A determinação não proíbe a tecnologia, mas impõe restrições ao uso de deepfakes e de outras ferramentas para manipular vídeos, imagens e áudios para favorecer ou prejudicar candidatos. Contudo, as campanhas podem utilizar IA generativa desde que informem que o conteúdo foi criado em chatbots e afins.

Continua após a publicidade

Além disso, a corte eleitoral vai ficar atenta às redes sociais para proliferação de fake news e outros casos de desinformação. Caso as plataformas mantenham conteúdos contra a democracia e incitem o ódio, podem ser responsabilizadas pelo caso.

Essa determinação se ancora em uma vantagem brasileira, que é ter um braço do Poder Judiciário para zelar pelas eleições, o que ajuda a lidar com diversas ameaças que possam prejudicar o processo. Por outro lado, o Brasil ainda não possui uma lei para criminalizar especificamente a disseminação de notícias falsas e deepfakes. 

“Há diversos projetos em andamento no Congresso que visam a criminalizar tais condutas, dos quais o mais famoso é Projeto de Lei nº 2630, chamado de PL das Fake News”, lembrou o advogado Marcelo Cárgano. 

“No entanto, as pessoas que produzem ou disseminam conteúdo inverídico — incluindo deepfakes — podem ser criminalizadas com base em leis já existentes, geralmente com base nos chamados crimes contra a honra — calúnia, injúria e difamação. No caso específico eleitoral, as penalidades previstas no Código Eleitoral também são aplicáveis”, completou.

Continua após a publicidade

E as plataformas de IA?

Enquanto a campanha eleitoral não começa de fato, algumas empresas preparam ou já prepararam o terreno para o momento mais decisivo das Democracias globais. É o caso da OpenAI, dona de ChatGPT e DALL-E, que vetou o uso dos seus serviços para criar aplicações para campanhas políticas e lobby.

“Ainda estamos trabalhando para entender a eficácia de nossas ferramentas para persuasão personalizada”, justificou a OpenAI em um documento publicado no próprio site. A empresa também veta a construção de chatbots que pretendem ser “pessoas reais” ou instituições e não permite “aplicações que dissuadam as pessoas de participar em processos democráticos” ou “que desencorajem a votação”.

A dona do ChatGPT também lembrou do C2PA do Dall-E 3, um padrão para que publishers, empresas e mais relacionem metadados às imagens geradas para verificar sua origem e outras informações relacionadas.

Continua após a publicidade

Em conversa com o Canaltech, a Microsoft compartilhou os compromissos divulgados em novembro do ano passado para proteger as eleições de 2024, seja no Brasil e no exterior. A começar pelas Credenciais de Conteúdo como Serviço, uma nova ferramenta para que os usuários identifiquem as mídias divulgadas por candidatos em suas campanhas.

“Os usuários podem anexar credenciais de conteúdo às suas imagens ou vídeos para mostrar como, quando e por quem o conteúdo foi criado ou editado, inclusive se foi gerado por IA”, explicou a empresa. “Essas credenciais passam a fazer parte da história do conteúdo e viajam com ele, criando um registro e contexto permanente onde quer que seja publicado.”

A desenvolvedora do Windows ainda se comprometeu em ajudar as campanhas no enfrentamento aos “desafios da segurança cibernética e o novo mundo da IA” com a nova Equipe de Sucesso de Campanha. Também haverá um novo Centro de Comunicações Eleitorais para oferecer apoio às autoridades e a entrega de conteúdos confiáveis no Bing.

No compromisso, ainda que fale sobre a atuação da Microsoft como um todo, a empresa não chegou a mencionar diretamente o Copilot. Todavia, nos Princípios de Acesso à IA, a Microsoft lista “a salvaguarda das eleições contra a manipulação de deepfakes” como uma de suas responsabilidades sociais.

Continua após a publicidade

Procurado pelo Canaltech, o Google não comentou sobre o tema.

Redes sociais vs. Eleições

Ainda que o ChatGPT, Gemini, Copilot e outros chatbots tenham um papel crucial no desenvolvimento desses conteúdos, outras plataformas são utilizadas para veicular fake news, deepfakes e outras ameaças que nem sempre dependem da IA para serem criados. É o caso das redes sociais e serviços de streaming de vídeos, que, no geral, são utilizados como o principal meio de comunicação pelos brasileiros.

Continua após a publicidade

Na pesquisa “Panorama Mobile Time/Opinion Box — Uso de apps no Brasil”, de dezembro de 2023, metade dos brasileiros afirmou que tem o atalho do Instagram e WhatsApp na tela inicial do celular. Além disso, a rede social de fotos e vídeo da Meta liderou quando os entrevistados foram questionados sobre o app que passa mais tempo ao longo do dia.

Contudo, a rede não está sozinha. Os entrevistados também listaram o WhatsApp, além de YouTube, Facebook, TikTok e Kwai, na relação dos apps em que passam mais tempo no dia a dia. Um comportamento que pode demonstrar tanto o sucesso dessas plataformas quanto um dos possíveis canais de informação mais utilizados no país.

Em fevereiro, gigantes da indústria de tecnologia, incluindo Adobe, Amazon, Google, IBM, Meta, Microsoft, OpenAI, TikTok e X (ex-Twitter), se uniram para combater a criação de conteúdo enganoso com IA nas eleições de 2024. Ao todo, as companhias signatárias do “Acordo tecnológico para combater o uso enganoso de IA nas eleições de 2024” fizeram oito comprometimentos:

  • Desenvolver e implementar tecnologia para mitigar riscos relacionados ao conteúdo eleitoral enganoso de IA, incluindo ferramentas de código aberto, quando apropriado;
  • Avaliar modelos para compreender os riscos que eles podem apresentar em relação ao conteúdo eleitoral enganoso de IA;
  • Detectar a distribuição de conteúdos enganosos nas plataformas;
  • Abordar adequadamente esse conteúdo detectado nas plataformas;
  • Promover a resiliência entre setores a conteúdo eleitoral enganoso de IA;
  • Fornecer transparência ao público sobre como a empresa aborda o assunto;
  • Continuar a se envolver com um conjunto diversificado de organizações globais da sociedade civil e acadêmicos;
  • Apoiar esforços para promover a consciência pública, a literacia mediática e a resiliência de toda a sociedade.

O Canaltech também entrou em contato com Meta (WhatsApp, Instagram e Facebook), YouTube, TikTok, Kwai, LinkedIn, X e Telegram para entender o impacto da IA generativa nas eleições, as medidas que serão tomadas para combater a desinformação, especialmente com conteúdos gerados a partir desses serviços, e sobre a resolução atual do TSE. Confira os posicionamentos a seguir.

Meta

Quando questionada, a Meta apenas disse que ainda aguardava “a íntegra das resoluções do TSE”. Contudo, nesse meio tempo, a dona de Facebook, Instagram e WhatsApp supostamente fez alterações nos bastidores que podem impactar o combate à desinformação.

Segundo os jornais Folha de S. Paulo e The Information, em março, o WhatsApp teria cortado recursos financeiros utilizados para apoiar empresas de checagem de fatos. Além do Brasil, a medida pode ter afetado outros países, como a Índia, que concentra a maior base de usuários do mensageiro.

"O WhatsApp tem orgulho de ser parceiro de mais de 50 organizações de verificação de fatos, inclusive no Brasil, que usam produtos do WhatsApp para fornecer uma maneira para as pessoas fazerem perguntas sobre possíveis informações falsas”, disse o WhatsApp na época. “Somos o primeiro aplicativo de mensagens a ajudar as organizações de checagem de fatos e vamos continuar esses investimentos este ano”.

Logo após a publicação desta matéria, a Meta entrou em contato com o Canaltech e compartilhou as iniciativas para proteger as eleições municipais de 2024. Entre elas, a ativação do Centro de Operações para Eleições, que ajudará a identificar e responder a possíveis ameaças no período eleitoral com apoio de especialistas.

A empresa também relembrou os planos para rotular imagens geradas por IA publicadas no Facebook, Instagram e Threads, assim como a exigência para anunciantes informarem quando a tecnologia é utilizada em anúncios. Além disso, a Meta informou que colabora com as autoridades e que remove “conteúdos no Facebook e no Instagram que desestimulam o voto ou interferem no processo de votação”.

YouTube

O YouTube, por outro lado, explicou que atualizou a plataforma para informar quando o conteúdo for artificial. “Os criadores precisarão declarar quando subirem na plataforma conteúdo manipulado ou artificial que parece realista, inclusive usando ferramentas de IA”, disse o site de vídeos do Google.

Caso o criador opte por não declarar essas informações, estará sujeito a penalidades. A empresa também não permite a divulgação de vídeos enganosos que podem causar danos graves, incluindo conteúdos eleitorais com alegações falsas, incorretas e enganosas sobre eleições.

TikTok

Em janeiro, o TikTok detalhou suas iniciativas para proteger a integridade das eleições em 2024, a começar pela educação midiática e as parcerias com especialistas e organizações de checagem de fatos para combater a desinformação e a identificação de conteúdo gerado por IA. A plataforma também realiza um trabalho de moderação durante as eleições.

“Não permitimos conteúdo manipulado que possa ser enganoso, incluindo o de figuras públicas, se elas forem retratadas endossando uma visão política”, declarou a líder de Segurança e Integridade na América Latina do TikTok, Natalia Aguilar Gallego. “Também exigimos que os criadores rotulem qualquer conteúdo realista gerado por IA e lançamos uma ferramenta inédita para ajudar as pessoas a fazer isso.”

Kwai

Em nota ao Canaltech, o Kwai pontuou que “não tolera conteúdos que tenham o potencial de prejudicar o processo democrático pela distribuição de informações falsas, enganosas, manipuladas ou prejudiciais a indivíduos e instituições”. Além disso, a empresa possui uma política de eleições e fez um acordo com o TSE em 2022 para combater a disseminação de desinformação nas eleições.

“O Kwai também possui parceria com uma agência de checagem de fatos para validação de informações. Assim, conteúdos que comprometam a segurança dos nossos usuários ou do nosso serviço podem ser removidos, e violações contínuas podem levar ao banimento da conta”, explicou a empresa.

LinkedIn

Ainda que o foco do LinkedIn seja carreira e parcerias comerciais, o espaço não é completamente blindado a outros assuntos. Muito pelo contrário: políticos que utilizam a rede social também são alvo de críticas, assim como acontece com as publicações de jornais.

Procurada, a companhia informou que segue “as leis e regulamentações em todos os países em que opera” e também lembrou que se uniu às demais plataformas no acordo para combater o uso prejudicial e enganoso da IA nas eleições.

“Durante as eleições e todos os outros dias, trabalhamos para construir uma comunidade que seja confiável e profissional para todos”, comentou.

O X (ex-Twitter) e Telegram não responderam as solicitações de contato.

Como se prevenir dos deepfakes nas eleições

Mesmo com todas as regras e ações, grandes desafios estão em jogo, como a identificação do conteúdo falso. Principalmente ao considerar a dificuldade para rastrear os autores de campanhas de desinformação, que se apoiam em anonimato online e técnicas de ocultação, além de espalhar os conteúdos em redes sociais para ter um alcance maior.

Apesar das dificuldades, existem algumas técnicas para fugir das campanhas de desinformação por meio de deepfakes, áudios falsos e demais tipos de conteúdos gerados por IA. Entre elas, prestar atenção no movimento facial, já que os vídeos falsificados podem gerar movimentos inconsistentes com a fala.

“Cheque a origem e o contexto do conteúdo, pesquisando essa origem em fontes confiáveis, no sentido de saber quem é o autor, qual a sua aparente reputação, que tipo de relação aquela pessoa tem com o conteúdo, onde o conteúdo foi publicado e a data”, disse a sócia do Daniel Advogados, Paula Rodrigues.

A orientação é apoiada pelo gerente de Engenharia de Segurança da Check Point Software Brasil, Fernando de Falchi. “É imprescindível verificar origem do vídeo ou áudio ou mensagens, quem está enviando, verificar data do que foi dito, se há veículos de comunicação comentando ou noticiando o assunto abordado no vídeo, na mensagem e no áudio recebido”, ressaltou.

O advogado especialista em direito digital Marcelo Cárgano também lembra que é necessário entender se o conteúdo tenta apelar às nossas emoções e valores. “Mensagens de tom alarmista, bem como frases chamativas como “não querem que você saiba disso!!!”, são comuns em conteúdo falso”, exemplificou.

Outra recomendação é sempre ser cético e acompanhar agências de checagem de fatos, além de fontes seguras e confiáveis. Você também consegue verificar fake news direto no WhatsApp.