Golpes de clonagem de voz já atingiram uma em cada quatro pessoas no mundo
Por Felipe Demartini • Editado por Wallace Moté |
O velho “golpe do impostor”, no Brasil muito usado em simulações de sequestro de familiares, ganhou uma bela ajuda da inteligência artificial. Com a disponibilização pública cada vez maior de ferramentas desse tipo, estão crescendo também as fraudes, com uma em cada quatro pessoas no mundo já tendo sido impactada, com perdas financeiras resultantes.
- Golpes usam IA para simular vozes de entes queridos e roubar dinheiro
- ChatGPT é usado para criar ameaças cada vez mais convincentes
A conclusão aparece em um relatório da empresa de segurança McAfee, que avaliou os riscos desta que nem mesmo pode ser considerada uma tendência, mas sim uma realidade. 10% dos participantes do estudo afirmaram terem sido alvos diretos, enquanto outros 15% disseram que um conhecido foi atingido. Em 77% dos casos, houve perda de dinheiro como decorrência do golpe, com uma em cada 10 vítimas alegando terem sido fraudadas em mais de US$ 5 mil, ou cerca de R$ 25 mil.
A Índia é o país com maior incidência desse tipo de crime, com 47% das pessoas afirmando que já foram alvo do golpe do impostor. Os Estados Unidos aparecem no segundo lugar, com 14%, enquanto o Reino Unido aparece em terceiro, com 8%. O Brasil não fez parte da lista de países em que a McAfee conduziu as pesquisas; em outras fontes, ainda não existem dados sobre esse tipo de fraude por aqui.
Por outro lado, o tipo mais comum de artimanha é uma velha conhecida por aqui: os pedidos de dinheiro em emergências. Acidentes de carro, roubos e furtos, perdas de carteiras ou celulares ou situações complicadas em viagens são os motivos mais utilizados pelos bandidos e mais convincentes para as vítimas. Entre os familiares, as pessoas são mais propensas a acreditarem em um contato desse tipo vindo de cônjuges, mães e filhos.
De acordo com o levantamento da McAfee, pessoas mais velhas são mais propensas a caírem em golpes de clonagem de voz, com pais e avós sendo as principais vítimas. Uma menor intimidade com a tecnologia e o funcionamento de fraudes desse tipo é o principal motivo, exatamente como acontece nos casos de falso sequestro, amplamente conhecidos dos brasileiros.
Como diferenciar as vozes reais das falsas?
A McAfee aponta que, com a evolução veloz da tecnologia, separar o que é verdadeiro das fraudes se tornou cada vez mais complexo. A IA seria capaz de reproduzir a fala de alguém com 95% de precisão a partir de uma amostra de somente três segundos, que pode ser amplamente encontradas em publicações em redes sociais. Quando se fala de criadores de conteúdo, então, o volume de dados é absurdamente maior.
Os dados do estudo apontam que, em todo o mundo, 26% compartilham a própria voz na internet pelo menos uma vez por semana. Na outra ponta, 70% dos entrevistados na pesquisa afirmaram não saber se seriam capazes de diferenciar uma voz criada por inteligência artificial da versão real, em todo um público amplamente suscetível a cair em fraudes assim.
“O golpe do impostor não é novo, mas a disponibilidade de ferramentas avançadas de inteligência artificial está mudando o jogo para os cibercriminosos”, aponta Steve Grobman, diretor de tecnologia da McAfee. “A tecnologia brinca com a conexão emocional e cria um senso de urgência, aumentando a chance de cair em um golpe.”
Como recomendação de segurança, a empresa de cibersegurança recomenda combinar uma senha verbal com familiares e amigos próximos, que precisa ser citada em pedidos de dinheiro ou ajuda em emergências. Manter a calma nestes momentos, prestando atenção nos detalhes — ou na ausência deles — também ajuda a discernir uma ligação legítima de uma falsa.
A McAfee também recomenda atenção a ligações que venham de números desconhecidos, mas com uma pessoa próxima do outro lado da linha. Fazer perguntas pessoais ajuda a confirmar a identidade, enquanto outro caminho para a segurança é simplesmente desligar a chamada e tentar acionar a pessoa a partir de um número ou aplicativo de confiança.
Fonte: McAfee