Cada día estamos más familiarizados con tecnología basada en comandos de voz, en nuestros celulares o computadoras contamos con software como siri de apple, google assistant o cortana de microsoft, la posibilidad de controlar las funcionalidades de nuestros dispositivos sin tener que tocarlos, únicamente usando el poder de nuestra voz son toda una realidad.
Continuando con temas referentes al “Envió de audio por la luz” y los diferentes dispositivos que hoy están en el mercado, y que nos permiten controlar nuestros hogares mediante la voz, les hablaré de una técnica que los creativos de la inseguridad presentaron al mundo para engañar a los asistentes de voz que hoy dominan el mercado.
Investigadores de la Universidad de Tokio y de la Universidad de Michigan han demostrado un método para activar a distancia los altavoces inteligentes de Amazon, Apple, Facebook y Google utilizando un puntero láser convencional y aprovechando que los micrófonos micro electromecánicos (MEMS) reaccionan a pulsos de luz dirigidos directamente contra ellos de forma similar a como reaccionan al sonido.
Con el circuito que les presente en el artículo “Envió de audio por la luz” podemos diseñar un emisor que no envíe música si no un comando de voz que le indique a siri que apague la luz de la cocina y que abra la puerta del garage.
Los investigadores avisan de que el método es aplicable a cualquier dispositivo compatible con el control por voz que utilice un micrófono micro electromecánico (MEMS), y que es difícil detectar un ataque de este tipo por la ausencia de sonido: “un usuario atento puede percibir el punto de luz del atacante sobre el dispositivo” y observar las respuestas del asistente virtual que sirven como confirmación del comando.
Los expertos recomiendan que nunca dejemos nuestros asistentes de voz visibles desde una ventana y que protejamos los micrófonos con un pedazo de cinta o tela para evitar que los punteros láser puedan ejecutar comandos poniendo en riesgo nuestros hogares.
Les comparto un video muy explicativo donde podemos ver como un atacante puede engañar a nuestro asistente y burlar nuestra seguridad.