Ученые из США и Китая научились незаметно взламывать голосовых помощников. Секрет технологии в том, что команды ассистентам подаются незаметно. Исследователи смогли синтезировать команду на частотах, которые человеческое ухо распознать не в силах. Уловить сигнал способна электроника, но со стороны выглядит так, будто команды подаются в абсолютной тишине. Метод атаки назвали "дельфиньим".

Команда американских ученых поступила по-другому: она зашифровала команды в аудиофайлы, например, в музыкальную композицию. При этом человек, опять же, не может на слух отличить "обычную" песню от той, в которой спрятан сигнал. Так, злоумышленники могут попросить голосового помощника открыть сайт с вредоносным кодом или совершить денежный перевод, а пользователи ничего не заметят.

Представители Amazon (разработчика Alexa) и Google уверяют, что используют распознавание голоса и исполняют команды только в том случае, если слышат голос владельца. В Apple заявили, что смарт-колонка HomePod не может открывать двери, а прочие устройства должны быть разблокированы, чтобы с помощью Siri можно было получить доступ к каким-то важным данным и открыть сайт.

Instagram добавил новый способ опроса подписчиков. Теперь в "историях" можно отвечать при помощи слайдера, передвигая ползунок. Например, пользователи могут указывать степень, насколько им нравится или не нравится то или иное блюдо, песня или что-то еще. Подробности — в программе Вести.net.