Publicidade

Como acontecem os golpes com reconhecimento facial e como empresas se protegem

Por  • Editado por Jones Oliveira | 

Compartilhe:
Apura Cyber Intelligence
Apura Cyber Intelligence

Segundo uma pesquisa da Accenture, 73% dos brasileiros já preferem acessar seus aparelhos e contas pessoais com biometria, com as impressões digitais, reconhecimento facial e até voz sendo usados na autenticação. Mesmo oferecendo uma maior segurança, esses métodos não são infalíveis: golpistas usam deepfakes e técnicas sofisticadas para burlar a biometria.

De acordo com a Juniper Research, mais de 4,2 bilhões de dispositivos móveis já usam biometria ativa, com previsão de que, até o final de 2026, 57% de todas as transações digitais do mundo sejam validadas por esses métodos. Os hackers acompanham a tendência com novas técnicas e tipos de ataque.

Biometria e deepfakes

Canaltech
O Canaltech está no WhatsApp!Entre no canal e acompanhe notícias e dicas de tecnologia
Continua após a publicidade

Anchises Moraes, Head de Threat Intelligence na Apura Cyber Intelligence, afirma que o avanço das tecnologias biométricas reforça sistemas de segurança governamentais e privados, mas também dá armas aos cibercriminosos na forma da inteligência artificial. As técnicas vão de impressoras de alta resolução e vídeos em HD a softwares, máscaras de silicone e muito mais.

A empresa divide as iniciativas para burlar biometria em cinco níveis de complexidade. No nível 1, são usadas fotos digitais em alta resolução, vídeos em HD e máscaras de papel. Já no 2, são feitos bonecos realistas ou máscaras 3D de látex ou silicone. No 3, artefatos ultrarrealistas e cabeças de cera reinam, enquanto o 4 envolve alteração de mapas faciais 3D para enganar autenticação de prova de vida.

No último estágio, o 5, é feita a injeção digital de imagens e vídeos diretamente nos dispositivos, ou são usados deepfakes altamente convincentes, fazendo o sistema aceitar a fraude como uma atividade orgânica do usuário. Quanto mais complexo, de mais alto nível é o alvo, para compensar o esforço e gasto financeiro do golpe.

No Brasil, fraudes com deepfakes e identidades digitais sintéticas têm crescido: um relatório da Deloitte aponta que o prejuízo econômico das fraudes impulsionadas por IA pode chegar a R$ 4,5 bilhões no final deste ano. O crescimento no uso de deepfakes fica na casa dos 800% em relação a 2024.

Na China, um caso em particular ilustrou o perigo desse tipo de golpe: um funcionário estatal foi induzido a transferir US$ 622 mil (cerca de R$ 3,1 milhões) para golpistas após conversar por vídeo com quem achava ser seu CEO, que teve a voz e a aparência replicadas pela IA. Foram usados vídeos públicos do executivo para criar seu clone digital.

Segundo Anchises, as empresas de cibersegurança têm apostado em várias camadas de proteção para combater essas ameaças, com sistemas multimodais de identificação, por exemplo. Eles combinam dados de vídeo, áudio, sensores de temperatura, profundidade e análise comportamental para dificultar a ação dos cibercriminosos.

Continua após a publicidade

Testes com desafios dinâmicos também são usados, gerados por IA, onde se pede que o usuário pisque apenas um olho ou fale informações contextuais não planejadas, junto a provas de vida passivas e ativas combinadas.

Vazamentos também são monitorados sistematicamente na dark web e em bases de dados abertas, buscando imagens e perfis vendidos ou reciclados que podem ser usados em tentativas de fraude. De acordo com Anchises, são sinais de uma guerra digital que, embora em evolução, está apenas começando.

Confira também:

Continua após a publicidade

VÍDEO | Você sabe IDENTIFICAR um DEEPFAKE?