Assistentes de voz podem ser hackeados com comandos ultrassônicos

Por Redação | 12 de Setembro de 2017 às 15h04

Foi descoberta uma nova forma de explorar uma vulnerabilidade de segurança presente em praticamente todos os assistentes de voz, incluindo a Siri, o Alexa e o Google Assistant.

O exploit foi criado a partir da ideia de que os assistentes de voz sempre estão prontos para receber novos comandos de voz.

Com isso em mente, pesquisadores da Universidade de Zhejiang, na China, gravaram uma série de comandos por voz e converteram os áudios em frequências de som ultrassônicas, que não podem ser captadas por ouvidos humanos, e elaboraram um dispositivo experimental para tentar controlar os assistentes de forma furtiva.

Dispositivo utilizado para os testes do DolphinAttack

Os testes com o método de invasão, apelidado de DolphinAttack, foram capazes de abrir sites maliciosos, iniciar chamadas de voz e vídeo e até mesmo enviar mensagens de texto em vários sistemas de reconhecimento de voz conhecidos, incluindo Siri, Google Now, Samsung S Voice, Cortana e Alexa.

Apesar de o DolphinAttack funcionar em diversos assistentes, os pequisadores observaram que as gravações ultrassônicas tiveram que ser reproduzidas a uma distância muito curta dos dispositivos alvos para funcionarem corretamente.

Para conferir o experimento na íntegra, acesse este link do documento em PDF.

Fique por dentro do mundo da tecnologia!

Inscreva-se em nossa newsletter e receba diariamente as notícias por e-mail.