Publicidade
Conteúdo apoiado por
Ir para o site do Surfshark!

Brasileiros já são alvo de golpe com clonagem de voz por IA; proteja-se

Por  • Editado por Wallace Moté | 

Compartilhe:
Ryan McGuire/Pixabay
Ryan McGuire/Pixabay

Qual pai não ajudaria um filho ao ouvir a voz dele do outro lado da linha, pedindo ajuda com o pagamento urgente de uma conta ou boleto? O instinto de auxiliar é normal e, também, aproveitado por cibercriminosos nos golpes envolvendo a clonagem de vozes por inteligência artificial, que começam a ser aplicados no Brasil como uma evolução de práticas já conhecidas, normalmente envolvendo pedidos de dinheiro por WhatsApp ou falso sequestro.

O que era uma possibilidade, apontada em relatórios de segurança como tendência e casos eventuais curiosos que chamam a atenção, se tornou realidade para o criador de conteúdo Dario Centurione, do canal Almanaque SOS. O pai dele perdeu R$ 600 após receber a clássica ligação, de número desconhecido, pedindo uma transferência rápida para a conta de um amigo após a suposta perda do celular. Um golpe comum, com uma grande diferença: ele ouvia o filho do outro lado da linha.

“Meu pai acreditou porque era minha voz, essa foi a parte elaborada do golpe”, explicou o criador em entrevista ao Canaltech. “Não foram passados detalhes pessoais, mas sim informações genéricas. Foi uma questão de ingenuidade, já que eu nunca havia pedido dinheiro para o meu pai nem tínhamos definido uma palavra-chave para segurança.” O idoso só notou a fraude após entrar em contato com o filho.

Canaltech
O Canaltech está no WhatsApp!Entre no canal e acompanhe notícias e dicas de tecnologia
Continua após a publicidade

O caso de Centurione é um dos primeiros a serem divulgados amplamente no Brasil. Em meados de abril, uma mulher americana foi vítima do conhecido golpe do falso sequestro; o criminoso usou uma versão criada por IA da voz da filha dela para falar brevemente com a mãe, antes de pedir um resgate de US$ 50 mil, aproximadamente R$ 250 mil. A polícia, porém, foi acionada e confirmou que a jovem estava bem antes que a negociação continuasse.

Como funcionam os golpes de clonagem de voz?

A disponibilidade pública de amostras é o elo entre os dois casos citados; no caso da jovem americana, a polícia acredita no uso de informações de redes sociais, enquanto para Centurione, isso está amplamente disponível em seus canais no TikTok, YouTube, Instagram e outros. Do outro lado, tecnologias que, de acordo com a Microsoft, seriam capazes de criar cópias vocais a partir de, apenas, três segundos de áudio.

Com a indicação do criador de conteúdo, o Canaltech testou um destes serviços, amplamente disponível ao público. Basta um cadastro e o pagamento de uma taxa mensal de US$ 5 (cerca de R$ 25) para ter acesso a uma inteligência artificial capaz de clonar a voz de alguém. Oficialmente, o serviço serve como auxílio a podcasters, influenciadores e demais profissionais, para que não precisem parar tudo para realizarem gravações; na prática, seu uso pode acabar assumindo outros fins.

Durante os testes feitos pela reportagem, ainda, havia uma promoção de lançamento, com o sistema custando mero US$ 1, ou cerca de R$ 5, pelos primeiros três meses. É um valor mais do que atrativo para os criminosos, que obtém muitas vezes esse custo a partir de uma única vítima, quem dirá várias, com contatos telefônicos feitos em massa, aos moldes de outras fraudes do tipo.

Em inglês, com uma boa amostra, sem ruídos e bem gravada, há pouca distinção entre o que é real ou não. O recurso não funciona tão bem em português, apesar do resultado relativamente convincente. Em nosso idioma, a inteligência artificial pronuncia as palavras de forma artificialmente perfeita e tem dificuldades com gírias, além de não reproduzir sotaques de forma fiel.

Continua após a publicidade

Adicione a isso os ruídos tradicionais de uma ligação telefônica, a falta de conhecimento da pessoa do outro lado da linha e, principalmente, a urgência da situação, para se criar o cenário perfeito para uma fraude desse tipo. Mesmo com o atraso necessário para processamento das falas e a necessidade de digitação rápida pelos bandidos, há o ensejo para atingir um grupo populacional que já é, naturalmente, o alvo de muitas ações assim.

“Não é algo que pega pessoas mais novas, que já conhecem a tecnologia. Mas já temos fraudes assim, que usam vozes genéricas contra pessoas de idade, imagina agora que é possível copiar a fala de uma pessoa conhecida?”, questiona Centurione. “Estamos na pré-história da inteligência artificial e já dá para criar uma fraude em cinco minutos. Em um ano, vai ter muito mais gente caindo, mesmo as mais desconfiadas.”

Como evitar golpes com clonagem de voz por IA?

Continua após a publicidade

A principal recomendação ventilada por especialistas em segurança e criadores de conteúdo é a criação de uma palavra-chave para pedidos desse tipo. O termo pode ser aleatório, mas conhecido apenas pelos familiares e pessoas próximas, de forma a confirmar a autenticidade das solicitações antes da realização de qualquer transferência.

O ideal, aliás, é que pagamentos e depósitos só sejam feitos após confirmação da identidade de quem está do outro lado da linha. Na falta de uma senha, é possível usar outros meios de verificação, como a realização de uma chamada de vídeo ou o pedido de uma foto com algum elementos específico, como a parede de casa ou um animal de estimação.

Enquanto fica difícil controlar a quantidade de amostras de voz disponíveis na internet, principalmente para criadores de conteúdo, é importante prestar atenção no discurso, em busca de erros na fala, artificialidade e outros elementos que indiquem fraude. Ao menor sinal de dúvida, o ideal é interromper o contato e buscar a pessoa em questão por outros meios, de forma a confirmar o pedido de socorro.

Ainda, ao ser contatado por um número diferente do usual, sempre vale a pena entrar em contato pelos meios tradicionais para confirmar a veracidade do pedido. Ao se ver diante de situações de estresse ou pressão, é importante manter a calma e não ceder aos pedidos de forma impulsiva, garantindo que eles são reais antes de realizar Pix ou fazer pagamentos.