Con un sencillo equipo y tus auriculares un hacker podría dar órdenes a tu asistente de voz

Hace tiempo que tenemos asistentes de voz instalados de serie en nuestros dispositivos (más o menos tiempo según la plataforma) y poco a poco van mejorando en funciones y en precisión en cuanto a entendernos sea cual sea nuestro idioma. Pero puede que lo de "personales" no se ajuste estrictamente a la realidad cuando al parecer nuestro asistente puede obedecer órdenes ajenas, concretamente de algún avispado hacker.

Dos investigadores de ANSSI, una agencia del gobierno francés dedicada a la seguridad, presentaron este hallazgo en la conferencia Hack in Paris este verano sin que recibiesen demasiada atención de los medios. No obstante, lo que demostraron es que es posible hackear los asistentes de voz enviando comandos mediante ondas de radio a cualquier teléfono Android con Google Now o iOS con Siri.

Los investigadores en cuestión, Jose Lópes Esteves y Chaouky Kasmi, explican que esto supone una amenaza crítica a la seguridad, ya que sin siquiera pronunciar ni una palabra el hacker puede ordenar al asistente comandos como llamar, enviar mensajes o incluso que visite sitios de malware o que el hacker tenga el número del usuario afectado al llamarse a él mismo.

Mucho ingenio y poco hardware

No es necesario, además, poseer un equipamiento avanzado para realizar la intromisión. Con un portátil que ejecute el software GNU Radio para crear las ondas electromagnéticas, una radio USRP (Universal Software Radio Periferal, definida por software), un amplificador y una antena es suficiente para crear un sistema básico que funcione en un rango de unos 2 metros. Con un equipo un poco más potente se consigue un alcance de unos 5 metros.

El invento funciona siempre y cuando la víctima tenga unos auriculares conectados al jack de audio. El cable de éstos actúa de antena, de modo que se trata de convertir las ondas electromagnéticas en una señal eléctrica que confunde al sistema operativo actuando como audio proveniente del micrófono del propietario.

Un método sencillo para daños complejos

Los investigadores plantean lo peligroso de este hallazgo pensando en que el hacker pueda elegir como lugar de acción un aeropuerto o un establecimiento concurrido donde haya mayor probabilidad de que se den en un usuario las condiciones idóneas para la intrusión. Aunque afortunadamente el sistema tiene bastantes limitaciones que hacen que el número de víctimas posibles sea menor.

Ya hemos visto que sólo puede actuar mediante el cable de los auriculares, por lo que éstos deben estar conectados. Además, los terminales han de tener los asistentes de voz activos en pantalla de bloqueo sin que estén limitados a atender las peticiones sólo si la voz es la del usuario. Por otro lado, si el usuario ve que el terminal ejecuta comandos extraños que él no ha ordenado puede cancelarlos.

El que avisa no es traidor

Los investigadores comentan que se han puesto en contacto tanto con Apple como con Google para explicarles el descubrimiento recomendando a su vez cómo evitarlo, como incorporar un un sensor electromagnético en el teléfono para poder bloquear el ataque o reforzar el recubrimiento de los auriculares (al menos en el caso de Apple, ya que los incluye en los terminales). Recuerdan que además hay maneras de prevenir el ataque mediante software, permitiendo que los usuarios creen sus propios comandos para activar al asistente.

De momento ninguno de los fabricantes ha respondido a los investigadores. Vincent Strubel, director del grupo de investigación matiza que así como el uso de la pantalla puede bloquearse con un código u otros sistemas, la voz no requiere ninguna autenticación. Por ello asegura que con este estudio se ven las carencias del modelo de seguridad en cuanto al uso de asistentes de voz.

Vía | Wired
En Xataka | Asistentes de voz y la lucha por la conquista de nuestra confianza

Ver todos los comentarios en https://www.xatakamovil.com

VER 0 Comentario

Portada de Xataka Móvil