Publicidade
Economize: canal oficial do CT Ofertas no WhatsApp Entrar

Assistentes de voz podem ser hackeados com comandos ultrassônicos

Por| 12 de Setembro de 2017 às 15h04

Link copiado!

Assistentes de voz podem ser hackeados com comandos ultrassônicos
Assistentes de voz podem ser hackeados com comandos ultrassônicos

Foi descoberta uma nova forma de explorar uma vulnerabilidade de segurança presente em praticamente todos os assistentes de voz, incluindo a Siri, o Alexa e o Google Assistant.

O exploit foi criado a partir da ideia de que os assistentes de voz sempre estão prontos para receber novos comandos de voz.

Com isso em mente, pesquisadores da Universidade de Zhejiang, na China, gravaram uma série de comandos por voz e converteram os áudios em frequências de som ultrassônicas, que não podem ser captadas por ouvidos humanos, e elaboraram um dispositivo experimental para tentar controlar os assistentes de forma furtiva.

Continua após a publicidade

Os testes com o método de invasão, apelidado de DolphinAttack, foram capazes de abrir sites maliciosos, iniciar chamadas de voz e vídeo e até mesmo enviar mensagens de texto em vários sistemas de reconhecimento de voz conhecidos, incluindo Siri, Google Now, Samsung S Voice, Cortana e Alexa.

Apesar de o DolphinAttack funcionar em diversos assistentes, os pequisadores observaram que as gravações ultrassônicas tiveram que ser reproduzidas a uma distância muito curta dos dispositivos alvos para funcionarem corretamente.

Para conferir o experimento na íntegra, acesse este link do documento em PDF.