Publicidade

Hackers podem clonar sua voz com IA em poucos segundos para aplicar golpes

Por  • Editado por Jones Oliveira | 

Compartilhe:
cottonbro studio/Pexels
cottonbro studio/Pexels

A inteligência artificial (IA) otimizou processos na vida de muita gente, mas também trouxe riscos à segurança em meio a ações de criminosos. Uma das táticas mais preocupantes da atualidade é a clonagem da voz humana para aplicar golpes.

Mais sofisticado que ataques de phishing por e-mail, o ato de replicar a voz de alguém com IA para cometer fraudes vem ganhando força no mundo do crime digital. Para ter noção do perigo, um estudo da McAfee apontou que 1 em cada 4 adultos já sofreu algum tipo de golpe de clonagem de voz por IA ou conhece alguma vítima.

Entre os desdobramentos desses casos, as perdas financeiras são bastante alarmantes e podem ganhar proporções ainda maiores ao longo dos próximos anos. Uma previsão da Deloitte Center for Financial Services, por exemplo, espera que as perdas causadas por esse tipo de fraude cheguem a US$ 40 bilhões até 2027.

Canaltech
O Canaltech está no WhatsApp!Entre no canal e acompanhe notícias e dicas de tecnologia
Continua após a publicidade

Mais acessível e perigoso

Um dos motivos pelos quais a clonagem de voz em golpes tem feito sucesso entre os criminosos é a facilidade por trás da ação. Com ferramentas de IA mais acessíveis, os hackers conseguem agilizar o processo e ainda replicar a voz humana de um jeito extremamente convincente, incluindo o timbre, o sotaque e até o tom emocional em casos mais sofisticados.

Dessa forma, basta apenas alguns segundos para que a voz de alguém seja manipulada com inteligência artificial, algo que é possível com apenas três segundos de uma mensagem de voz da vítima, ou de um vídeo publicado nas redes sociais.

O objetivo dos criminosos com a clonagem de voz é tornar os golpes mais persuasivos e direcionados para garantir que ele seja bem-sucedido. Logo, os hackers simulam as vozes de familiares, amigos ou autoridades para fazer com que o alvo acredite com mais facilidade no caso apresentado, tornando o cenário mais convidativo para que a fraude obtenha êxito.

Sinais de golpe por clonagem de voz

Como qualquer tipo de fraude digital, a clonagem de voz por IA também deixa alguns sinais de alerta enquanto ela acontece. Alguns dos mais evidentes são ligações de números desconhecidos, senso de urgência, ritmo vocal estranho e pausas não naturais, e uma voz sem emoção que não parece soar humana.

Continua após a publicidade

Diante desse cenário, vale prestar atenção a contatos vindos de fontes desconhecidas, desconfiando de contatos que pedem dinheiro com um tom urgente. Vale também criar palavras de segurança com pessoas próximas para confirmar a identidade e limitar o acesso a suas redes sociais.

Fonte: Tom's Guide