Хакеры могут отдавать команды смарт-колонкам лазером

Siri, Alexa, Ассистент Google (да и, вероятнее всего, "Алиса") — все голосовые ассистенты оказались уязвимыми к новому типу атак. Злоумышленники могут командовать ими при помощи лазера.

Siri, Alexa, Ассистент Google (да и, вероятнее всего, "Алиса") — все голосовые ассистенты оказались уязвимыми к новому типу атак. Злоумышленники могут командовать ими при помощи лазера.

Исследователи продемонстрировали, что "световые команды", отдаваемые лазером низкой мощности с расстояния до 110 м, могут восприниматься микрофонами любых электронных устройств (от смарт-колонок и смарт-экранов до смартфонов) как голосовые. Учитывая, как развились в некоторых странах экосистемы "умного дома" и голосовых помощников, уязвимость может позволить беззвучной (а иногда и невидимой) командой открывать двери, делать покупки, заходить на сайты или даже запускать двигатели автомобилей.

Проблема в том, что большинство голосовых интерфейсов не предусматривают ввода пароля или ПИН-кода, и далеко не все поддерживают идентификацию пользователей по тембру голоса. Даже если для подтверждения каких-то действий и нужен ПИН-код, его нетрудно найти перебором — ограничений на число попыток ввода, как правило, нет.

"Световые атаки" работают и через стекло, единственное требование — чтобы между устройством-жертвой и хакером с лазером, сигнал которого модулируется для имитации голосовых команд, не было непрозрачных препятствий.

Микрофоны в электронных устройствах используют так называемые микроэлектромеханические системы (MEMS), пишет Ars Technica. По мнению обнаруживших уязвимость исследователей, атаковать таким образом при помощи лазера можно любое современное электронное устройство с микрофоном.