— Доброе утро, Иоганн!
— Доброе утро, господин комиссар. Что случилось?
— У нас непонятное ограбление. Ну не понимаю я, как может такое произойти.
— Давайте подумаем вместе. Что произошло?
— В доме банкира А произошло ограбление. Проблема в том, что в доме установлена «умная» система сигнализации, реагирующая только на его голос. Причем кодовую фазу нужно произнести сперва на улице, а потом уже будучи внутри здания. Фразы меняются ежедневно, для этого используется «умный» помощник, расположенный внутри здания. Ничего не понимаю!
— А фраза не переустановлена?
— Нет.
— Будем думать. Пока не готов ответить.
— Марк, это задача для тебя и твоих ребят. Подумайте!
Прошла неделя.
— Шеф, кажется мы знаем, как это сделано.
— Как?
— В комнате, в которой стоит голосовой помощник, установлено и музыкальное устройство, вернее колонки. Господин А обожает, когда музыка переходит за ним из комнаты в комнату. Так вот, мы проанализировали музыку и обнаружили, что кое-где записаны дополнительные команды для голосового помощника. В том числе нашли команду для смены пароля. Посылаемые звуковые сигналы были никому не слышны, однако отлично улавливались микрофонами атакуемых устройств. Именно таким образом был сменен пароль.
— А голос?
— А голос подделали с помощью другого программного обеспечения. В результате система посчитала взломщиков легитимным пользователем. Так что вам нужно искать того, кто изменил музыку.
— Да... Все чаще понимаю, что времена классических сыщиков уходят в прошлое. Спасибо, Иоганн!
Увы, такая атака на голосовых помощников уже давно не фантастика. Она была продемонстрирована в 2017 г. учеными Чжэцзянского университета (Китай). Посылаемые звуковые сигналы были никому не слышны, однако отлично улавливались микрофонами атакуемых устройств. Атака получила название DolphinAttack («Атака дельфина»), поскольку эти животные используют ультразвуковые сигналы для общения между собой.