Tech

Siri, Alexa y Google Now pueden ser hackeados con comandos inaudibles

En algunos dispositivos, los sistemas tienen fallas en el micrófono y en el software. Un comando en ultrasonido puede vulnerar los equipos y controlarlos para convertirlos en aparatos espías.

Sistemas de reconocimiento por voz como Siri (Apple), Alexa (Amazon) y Google Now pueden ser vulnerados con sonidos inaudibles para el oído humano, con la posibilidad de convertir a los dispositivos que los albergan en equipos espías, señaló un estudio de la Universidad de Zhejiang, en China. 

Los investigadores encontraron fallas en el hardware y en el software de estos sistemas; es decir, en el micrófono instalado en los dispositivos y en el proceso interno que los hace funcionar.

Por lo tanto, si ambas vías son vulnerables, el hacker entra al aparto para desarrollar diversas actividades, como videollamadas, mensajes de texto o correos electrónicos. 

Ultrasonido
Sonido cuya frecuencia excede los límites que puede percibir el ser humano.



Estas fallas se muestran de la siguiente manera. En el estudio, los investigadores notaron que estos sistemas de reconocimiento por voz tenían desbloqueados comandos inaudibles que, cuando se manipulan, pueden controlar el dispositivo. Para llegar a esta fase de control, necesitaron contraataques en ultrasonido, los cuales sí son capaces de detectar estos sonidos que el oído humano no. 

El mecanismo de ataque para vulnerar el sistema de reconocimiento por voz fueron llamados 'Dolphin Attack', debido a que los delfines tienen la capacidad de escuchar sonidos en más frecuencias que los seres humanos. 

Al llevar a cabo sus ataques en un ambiente de silencio, Dolphin Attack tuvo éxito en 100 por ciento de los casos de control del dispositivo, y además pudo realizar hasta videollamadas. 

En ambientes que simularon ruidos de oficina y calles, el éxito disminuyó a 90 por ciento, pues la interferencia de otras frecuencia juega un papel crucial en la manipulación del aparato. Además, no fue posible realizar acciones complejas como llamadas en video.

El estudio indicó recomendaciones para las empresas a cargo de estos sistemas para que corrijan los errores de hardware y software. Mientras que añadieron que los modelos del iPhone 6s en adelante no son vulnerables.

Los encargados del estudio probaron Dolphin Attack en más de 16 sistemas de reconocimiento por voz, incluidos los ya mencionados de Apple, Amazon y Google, y en todos se pudo vulnerar el equipo.

:

También lee: