Publicidade
Economize: canal oficial do CT Ofertas no WhatsApp Entrar

Criminosos usam inteligência artificial para imitar voz de CEO e roubar empresa

Por| 06 de Setembro de 2019 às 13h35

Link copiado!

Jirsak/DepositPhotos
Jirsak/DepositPhotos

A inteligência artificial é sinônimo de inovação e tem trazido uma gama de benefícios para a indústria da tecnologia. No entanto, nas mãos erradas, pode representar um grande perigo. Na última sexta-feira (30), o The Wall Street Journal divulgou o caso de uma empresa alemã que foi vítima de uma fraude séria. Acontece que os criminosos usaram inteligência artificial para imitar a voz do CEO da companhia e conseguir transferir € 220 mil (equivalente a R$ 1,1 milhão).

O golpe aconteceu da seguinte maneira: os criminosos usaram um programa para imitar a voz do CEO da empresa alemã e fizeram uma ligação para o CEO de uma subsidiária no Reino Unido. No telefonema, eles pediram a transferência do dinheiro e garantiram que o reembolso aconteceria em breve. Como o executivo britânico ouviu a voz normal do alemão, não estranhou o pedido (ele disse ao jornal norte-americano que a inteligência artificial inclusive reproduziu com maestria o sotaque alemão do executivo) e realmente fez a transferência de fundos para uma conta na Hungria. Depois disso, esse dinheiro foi transferido para várias contas no México.

Não satisfeitos com o primeiro golpe, os larápios ainda tentaram pedir uma segunda transferência, e foi aí que o executivo britânico começou a estranhar, recusando o pedido. As autoridades seguem investigando o caso, mas nada foi descoberto ainda. Os nomes da empresa alemã e da subsidiária britânica também não foram revelados pelo The Wall Street Journal. O que se sabe é que elas têm seguro, então o prejuízo acabou sendo coberto. 

Continua após a publicidade

Esse foi o primeiro caso de fraude de voz baseada em inteligência artificial, uma técnica que acabou ganhando o apelido de vishing (o que é a junção de voice + phishing, uma maneira desonesta que cibercriminosos usam para enganar a vítima para revelar informações pessoais).

Fonte: The Wall Street Journal