Умные помощники на сегодняшний момент являются наиболее перспективным направлением развития в сфере искусственного интеллекта, и они уже широко представлены в любой пользовательской среде, на разных ее уровнях. Однако готовность и возможность слушать команды в любую секунду – зачастую даже без необходимости произнесения кодового слова-запуска – приводит к тому, что функционалом голосового помощника могут воспользоваться злоумышленники, стремящиеся насолить пользователям. Данная теория уже долгое время вращается в интернете, и некоторые компании-разработчики ранее пытались ее подтвердить – причем не без видимого успеха.
Вот и сейчас команда специалистов из Калифорнийского Университета в Беркли решила проверить, насколько легко заставить современные версии распространенных голосовых помощников – в числе которых не только Google Assistant и Alexa, но также Siri – совершать те команды, которые не были даны им непосредственно пользователем-владельцем.
Для этого они собрали специальное аудиоустройство, проигрывающее определенные голосовые команды и просьбы на фоне музыкальных композиций, причем режим работы данного устройства таков, что оно попеременно переключается в различные уровни аудио-частот, некоторые из которых просто неслышны для человеческого уха. Результаты оказались ошеломительными – во многих случаях, проиллюстрированные голосовые помощники действительно выполняли прозвучавшие команды, в том числе на неслышимых аудио-частотах, что не может не удивлять и не вгонять в панику многих пользователей.
Однако комментарии самих разработчиков в этом смысле разнятся – компания Google, например, заявила о том, что ее ИИ прежде всего запрашивает пользовательскую авторизацию, а уже затем выполняет команды, прозвучавшие в эфире. У Amazon примерно такая же ситуация и стратегия, а вот Apple со своим помощником Siri указал, что некоторые команды помощник выполнять не будет до тех пор, пока пользователь не разблокирует экран своего устройства.