Brasileiros já são alvo de golpe com clonagem de voz por IA; proteja-se
Por Felipe Demartini • Editado por Wallace Moté |
Qual pai não ajudaria um filho ao ouvir a voz dele do outro lado da linha, pedindo ajuda com o pagamento urgente de uma conta ou boleto? O instinto de auxiliar é normal e, também, aproveitado por cibercriminosos nos golpes envolvendo a clonagem de vozes por inteligência artificial, que começam a ser aplicados no Brasil como uma evolução de práticas já conhecidas, normalmente envolvendo pedidos de dinheiro por WhatsApp ou falso sequestro.
- Golpes de clonagem de voz já atingiram uma em cada quatro pessoas no mundo
- IA que clona vozes de celebridades é usada para a prática de crimes
O que era uma possibilidade, apontada em relatórios de segurança como tendência e casos eventuais curiosos que chamam a atenção, se tornou realidade para o criador de conteúdo Dario Centurione, do canal Almanaque SOS. O pai dele perdeu R$ 600 após receber a clássica ligação, de número desconhecido, pedindo uma transferência rápida para a conta de um amigo após a suposta perda do celular. Um golpe comum, com uma grande diferença: ele ouvia o filho do outro lado da linha.
“Meu pai acreditou porque era minha voz, essa foi a parte elaborada do golpe”, explicou o criador em entrevista ao Canaltech. “Não foram passados detalhes pessoais, mas sim informações genéricas. Foi uma questão de ingenuidade, já que eu nunca havia pedido dinheiro para o meu pai nem tínhamos definido uma palavra-chave para segurança.” O idoso só notou a fraude após entrar em contato com o filho.
O caso de Centurione é um dos primeiros a serem divulgados amplamente no Brasil. Em meados de abril, uma mulher americana foi vítima do conhecido golpe do falso sequestro; o criminoso usou uma versão criada por IA da voz da filha dela para falar brevemente com a mãe, antes de pedir um resgate de US$ 50 mil, aproximadamente R$ 250 mil. A polícia, porém, foi acionada e confirmou que a jovem estava bem antes que a negociação continuasse.
Como funcionam os golpes de clonagem de voz?
A disponibilidade pública de amostras é o elo entre os dois casos citados; no caso da jovem americana, a polícia acredita no uso de informações de redes sociais, enquanto para Centurione, isso está amplamente disponível em seus canais no TikTok, YouTube, Instagram e outros. Do outro lado, tecnologias que, de acordo com a Microsoft, seriam capazes de criar cópias vocais a partir de, apenas, três segundos de áudio.
Com a indicação do criador de conteúdo, o Canaltech testou um destes serviços, amplamente disponível ao público. Basta um cadastro e o pagamento de uma taxa mensal de US$ 5 (cerca de R$ 25) para ter acesso a uma inteligência artificial capaz de clonar a voz de alguém. Oficialmente, o serviço serve como auxílio a podcasters, influenciadores e demais profissionais, para que não precisem parar tudo para realizarem gravações; na prática, seu uso pode acabar assumindo outros fins.
Durante os testes feitos pela reportagem, ainda, havia uma promoção de lançamento, com o sistema custando mero US$ 1, ou cerca de R$ 5, pelos primeiros três meses. É um valor mais do que atrativo para os criminosos, que obtém muitas vezes esse custo a partir de uma única vítima, quem dirá várias, com contatos telefônicos feitos em massa, aos moldes de outras fraudes do tipo.
Em inglês, com uma boa amostra, sem ruídos e bem gravada, há pouca distinção entre o que é real ou não. O recurso não funciona tão bem em português, apesar do resultado relativamente convincente. Em nosso idioma, a inteligência artificial pronuncia as palavras de forma artificialmente perfeita e tem dificuldades com gírias, além de não reproduzir sotaques de forma fiel.
Adicione a isso os ruídos tradicionais de uma ligação telefônica, a falta de conhecimento da pessoa do outro lado da linha e, principalmente, a urgência da situação, para se criar o cenário perfeito para uma fraude desse tipo. Mesmo com o atraso necessário para processamento das falas e a necessidade de digitação rápida pelos bandidos, há o ensejo para atingir um grupo populacional que já é, naturalmente, o alvo de muitas ações assim.
“Não é algo que pega pessoas mais novas, que já conhecem a tecnologia. Mas já temos fraudes assim, que usam vozes genéricas contra pessoas de idade, imagina agora que é possível copiar a fala de uma pessoa conhecida?”, questiona Centurione. “Estamos na pré-história da inteligência artificial e já dá para criar uma fraude em cinco minutos. Em um ano, vai ter muito mais gente caindo, mesmo as mais desconfiadas.”
Como evitar golpes com clonagem de voz por IA?
A principal recomendação ventilada por especialistas em segurança e criadores de conteúdo é a criação de uma palavra-chave para pedidos desse tipo. O termo pode ser aleatório, mas conhecido apenas pelos familiares e pessoas próximas, de forma a confirmar a autenticidade das solicitações antes da realização de qualquer transferência.
O ideal, aliás, é que pagamentos e depósitos só sejam feitos após confirmação da identidade de quem está do outro lado da linha. Na falta de uma senha, é possível usar outros meios de verificação, como a realização de uma chamada de vídeo ou o pedido de uma foto com algum elementos específico, como a parede de casa ou um animal de estimação.
Enquanto fica difícil controlar a quantidade de amostras de voz disponíveis na internet, principalmente para criadores de conteúdo, é importante prestar atenção no discurso, em busca de erros na fala, artificialidade e outros elementos que indiquem fraude. Ao menor sinal de dúvida, o ideal é interromper o contato e buscar a pessoa em questão por outros meios, de forma a confirmar o pedido de socorro.
Ainda, ao ser contatado por um número diferente do usual, sempre vale a pena entrar em contato pelos meios tradicionais para confirmar a veracidade do pedido. Ao se ver diante de situações de estresse ou pressão, é importante manter a calma e não ceder aos pedidos de forma impulsiva, garantindo que eles são reais antes de realizar Pix ou fazer pagamentos.