Publicidade
Conteúdo apoiado por

Ataque usa sons inaudíveis para controlar smartphones e assistentes de voz

Por  • Editado por Claudio Yuge | 

Compartilhe:
Bruno Salutes/Adobe Stock
Bruno Salutes/Adobe Stock

Em mais um método de ataque tão sofisticado que parece saído de um filme de espionagem, pesquisadores de duas universidades americanas demonstraram como sons inaudíveis por seres humanos podem ser usados em ataques contra smartphones e assistentes de voz. Na técnica, bastaria um áudio do WhatsApp, um vídeo no YouTube ou chamada de vídeo para que a técnica fosse possível, com diferentes potenciais maliciosos.

O golpe batizado de NUIT (Trojan Inaudível Quase-Ultrassom, em tradução livre da sigla em inglês) foi testado contra sistemas como Google Assistente, Cortana e Alexa, e se provou funcional em todos. Na outra ponta, estão smartphones e dispositivos da Internet das Coisas que podem ser suscetíveis a ataques que envolvem destrancar uma porta, desativar um sistema de alarme ou mandar uma mensagem via SMS, nos cenários testados pelos pesquisadores.

A exploração também possibilita a realização de ataques remotos, já que assistentes de voz em celulares também podem ser usados para abrir sites. Bastaria um comando inaudível a partir de uma chamada no Zoom ou em um vídeo, enviados em um golpe de phishing contra a vítima, para que o smartphone dela interagisse com um domínio perigoso sem a anuência do usuário, possibilitando uma contaminação por malware, por exemplo.

Canaltech
O Canaltech está no WhatsApp!Entre no canal e acompanhe notícias e dicas de tecnologia
Continua após a publicidade

A mágica está no fato de os dispositivos serem capazes de ouvir sons inaudíveis ao ouvido humano, desde que o dispositivo esteja com um nível de volume determinado. De acordo com os responsáveis pelo estudo, os testes contra 17 aparelhos populares que usam essa tecnologia foram bem-sucedidos, com exceção da Siri, da Apple, que realiza uma autenticação por voz do próprio usuário e não aceita comandos de terceiros — desde que essa opção esteja ativada pelo usuário.

O estudo foi conduzido pela professora Guenevere Chen, ao lado do doutorando Qi Xia, da Universidade do Texas San Antonio, em parceria com o professor Shouhuai Xu, da Universidade do Colorado. De acordo com o time, o golpe NUIT pode ser realizado também em um mesmo dispositivo, que seria a fonte de reprodução do áudio comprometido e também o receptor, mas se mostrou mais eficaz quando realizado entre aparelhos diferentes.

A furtividade pode ser garantida com a emissão de um comando prévio para que as respostas da assistência de voz sejam silenciadas, com toda um ataque sendo possível em menos de um segundo. As ordens podem ser geradas por robôs de leitura, de forma a ocultar até mesmo a identidade dos responsáveis pelo golpe em um possível ataque — foi essa via que demonstrou que a Siri exige uma complexidade adicional para ser explorada.

Segundo os pesquisadores, o maior temor é que os usuários não podem fazer nada para coibir um ataque do tipo NUIT, a não ser usar fones de ouvido ou desativar os assistentes de voz, o que vai contra o propósito do produto. Medidas adicionais de proteção contra phishing, como a atenção a links recebidos ou participantes de chamadas, podem ajudar a manter maior proteção.

Por outro lado, ainda não existem casos confirmados de ataques com o NUIT, já que somente seus parâmetros gerais foram divulgados pelos pesquisadores. O trabalho completo deve ser apresentado somente em agosto, em um simpósio de cibersegurança que vai acontecer na cidade de Anaheim, nos Estados Unidos.

Fonte: Universidade do Texas San Antonio