Группа ученых из калифорнийского университета Беркли разработала технологию, которая позволяет атаковать голосовые помощники и прочие устройства для дома при помощи команд, спрятанных в записи музыки и устной речи.
Исследователи объяснили, что системы распознавания голоса интерпретируют звуки, которые слышат, в буквы. Однако небольшие изменения в звуках позволяют «отменить» те звуки, которые должно «услышать» устройство, таким образом передавая новую команду. Специалисты поделились документом, в котором описывается подобная атака.
Сейчас нет доказательств того, что кто-то использует подобную схему вне лабораторных условий. Но один из авторов исследования не исключает, что злоумышленники уже могут работать в данном направлении.
Представители Google и Amazon сообщили, что их голосовые помощники используют распознавание голоса. Однако в компаниях не уточнили, как защищают системы от скрытых команд. В Apple отметили, что их «умная» колонка Homepod не задумывалась как устройство, способное, к примеру, открывать двери. Кроме того, iPhone и iPad должны быть разблокированы перед тем, как Siri сможет открывать сайты или приложения.
Источник: The New York Times