Los ataques basados ​​en la luz se expanden al hogar digital

Hola otra vez. Te habla Eduardo Arroyo y esta vez vamos a hablar sobre Los ataques basados ​​en la luz se expanden al hogar digital

Los ataques basados ​​en la luz se expanden al hogar digital

El equipo que pirateó Amazon Echo y otros altavoces inteligentes con un puntero láser continúa investigando por qué los micrófonos MEMS responden al sonido.

Imagine que alguien se conecta a un dispositivo Amazon Alexa usando un rayo láser y luego realiza compras Online usando la cuenta de esa persona. Este es un escenario presentado por un grupo de investigadores que están explorando por qué los asistentes domésticos digitales y otros sistemas de detección que utilizan comandos de sonido para realizar funciones pueden ser violados por la luz.

El mismo equipo que el año pasado lanzó un ataque de inyección de señal en una serie de parlantes inteligentes simplemente usando un puntero láser todavía está desentrañando el misterio de por qué los micrófonos de sistemas microelectromecánicos (MEMS) en los productos transforman las señales de luz. en sonido.

Los investigadores en ese momento dijeron que podían emitir comandos sutiles mediante láseres brillantes, hasta 110 metros o 360 pies, en los micrófonos de varios asistentes de voz populares, incluidos Amazon Alexa, Apple Siri, Facebook Portal y Google Assistant.

«[B]y Al modular una señal eléctrica en la intensidad de un haz de luz, los atacantes pueden inducir a los micrófonos a producir señales eléctricas como si estuvieran recibiendo audio auténtico «, dijeron los investigadores en ese momento.

Ahora, el equipo … Sara Rampazzi, profesor asistente de la Universidad de Florida; es Benjamin Cyr y Daniel Genkin, estudiante de doctorado y profesor asistente de la Universidad de Michigan, respectivamente, han extendido estos ataques basados ​​en la luz más allá de los asistentes digitales a otros aspectos del hogar conectado.

Ampliaron su investigación para mostrar cómo se puede usar la luz para manipular una gama más amplia de asistentes digitales, incluido el Amazon Echo 3, pero también los sistemas de detección que se encuentran en dispositivos médicos, vehículos autónomos, sistemas industriales e incluso sistemas espaciales.

Los investigadores también profundizaron en cómo el ecosistema de dispositivos conectados a asistentes activados por voz, como cerraduras inteligentes, interruptores domésticos e incluso automóviles, falla incluso en presencia de vulnerabilidades de seguridad comunes que pueden hacer que estos ataques sean aún más peligrosos. El documento muestra cómo el uso de un asistente digital como puerta de enlace puede permitir a los atacantes tomar el control de otros dispositivos en el hogar: una vez que un atacante toma el control de un asistente digital, pueden tener el control de cualquier dispositivo. conectado a él que también responde a los comandos de voz. De hecho, estos ataques pueden volverse aún más interesantes si estos dispositivos están vinculados a otros aspectos de la casa inteligente, como cerraduras inteligentes, puertas de garaje, computadoras e incluso los autos de las personas, dijeron.

«A menudo falta la autenticación de usuario en estos dispositivos, lo que permite al atacante utilizar comandos de voz con inyección de luz para desbloquear las puertas delanteras protegidas con cerraduras inteligentes del objetivo, abrir puertas de garaje, comprar en sitios de comercio electrónico. a expensas del objetivo o incluso desbloqueando y arrancando varios vehículos vinculados a la cuenta de Google del objetivo (por ejemplo, Tesla y Ford) ”, escribieron los investigadores en su artículo.

El equipo planea enviar el archivo evolución de su investigación en Black Hat Europe el 10 de diciembre, aunque reconocen que todavía no están del todo seguros de por qué funciona el ataque basado en la luz, dijo Cyr en un relación publicado en Dark Reading.

«Todavía hay cierto misterio en torno a la causalidad física en cuanto a cómo funciona», dijo a la publicación. «Estamos investigando más a fondo».

El ataque que los investigadores describieron el año pasado aprovechó el diseño de los micrófonos asistentes inteligentes, la última generación de Amazon Echo, Apple Siri, el portal de Facebook y Google Home, y se denominó «controles de luz. «

Los investigadores se centraron en los micrófonos MEM, que funcionan convirtiendo el sonido (comandos de voz) en señales eléctricas. Sin embargo, el equipo afirmó poder lanzar comandos inaudibles a través de láseres brillantes, desde una distancia de hasta 110 metros o 360 pies, a los micrófonos.

El equipo ofrece algunas mitigaciones para estos ataques tanto desde la perspectiva del software como del hardware. Desde la perspectiva del software, los usuarios pueden agregar una capa adicional de autenticación en los dispositivos para prevenir «de alguna manera» los ataques, aunque la usabilidad puede verse afectada, dijeron los investigadores.

En términos de hardware, reducir la cantidad de luz que llega a los micrófonos mediante el uso de una barrera o película difractada para bloquear físicamente los haces de luz directa, permitiendo que las ondas de sonido se desvíen alrededor del obstáculo, podría ayudar a mitigar los ataques. afirmó.

.

Deberías compartir en tu Facebook para que tus colegas lo vean

??? ? ? ???

Comparte