Вредоносные команды Google Assistant можно спрятать в музыке и безобидных голосовых записях

Группа студентов из Беркли продемонстрировала, как вредоносные команды для Google Assistant, Alexa и Siri можно спрятать в музыкальных записях или безобидных на слух речах.

Простая трансляция этих треков по радио, музыкальный стриминговый трек или подкаст могут позволить злоумышленникам взять под контроль умный дом…

NY Times сообщает, что это продолжение исследований, начавшихся в 2016 году.

Реклама — прокрутите дальше, чтобы увидеть больше контента

За последние два года исследователи из Китая и США начали демонстрировать, что они могут отправлять скрытые команды, не обнаруживаемые человеческим ухом, для Siri от Apple, Alexa от Amazon и Google Assistant. В университетских лабораториях исследователи смогли тайно активировать системы искусственного интеллекта на смартфонах и умных колонках, заставляя их набирать номера телефонов или открывать веб-сайты. В чужих руках эта технология может быть использована для открытия дверей, перевода денег или покупки товаров онлайн — просто с музыкой, играющей по радио.

Исследование 2016 года демонстрировало команды, спрятанные в белом шуме, но студентам в этом месяце удалось сделать то же самое в музыке и устном тексте.

Внося небольшие изменения в аудиофайлы, исследователи смогли подавить звук, который система распознавания речи должна была услышать, и заменить его звуком, который машины интерпретировали бы иначе, оставаясь почти неразличимым для человеческого уха […]

Им удалось спрятать команду «Окей, Google, перейди на evil.com» в записи произнесенной фразы «Без набора данных статья бесполезна». Люди не могут различить команду.

Группа из Беркли также встраивала команду в музыкальные файлы, включая четырехсекундный отрывок из «Реквиема» Верди.

Аналогичные методы были продемонстрированы с использованием ультразвуковых частот.

Исследователи из Принстонского университета и Китайского университета Чжэцзян продемонстрировали, что системы распознавания голоса могут быть активированы с использованием частот, неслышимых человеческому уху. Атака также сначала заглушала телефон, чтобы владелец не слышал ответы системы.

Исследователи из Беркли говорят, что нет никаких признаков использования этого метода атаки в реальной жизни, но это может легко измениться.

Николас Карлини, студент пятого курса аспирантуры по компьютерной безопасности в Калифорнийском университете в Беркли и один из авторов статьи, [сказал, что] хотя не было никаких доказательств того, что эти методы вышли из лаборатории, возможно, лишь вопрос времени, когда кто-то начнет их использовать. «Я полагаю, что злоумышленники уже нанимают людей, чтобы делать то, что делаю я», — сказал он.


Посетите 9to5Google на YouTube для получения дополнительных новостей: