0 3
3 0 0 0

Американские ученые создали технологию для взлома голосовых помощников

11 мая 2018, 13:43  | Валерия Россохина

Группа ученых из калифорнийского университета Беркли разработала технологию, которая позволяет атаковать голосовые помощники и прочие устройства для дома при помощи команд, спрятанных в записи музыки и устной речи.

pexels-photo-271265.jpeg

Исследователи объяснили, что системы распознавания голоса интерпретируют звуки, которые слышат, в буквы. Однако небольшие изменения в звуках позволяют «отменить» те звуки, которые должно «услышать» устройство, таким образом передавая новую команду. Специалисты поделились документом, в котором описывается подобная атака.

Сейчас нет доказательств того, что кто-то использует подобную схему вне лабораторных условий. Но один из авторов исследования не исключает, что злоумышленники уже могут работать в данном направлении.

Представители Google и Amazon сообщили, что их голосовые помощники используют распознавание голоса. Однако в компаниях не уточнили, как защищают системы от скрытых команд. В Apple отметили, что их «умная» колонка Homepod не задумывалась как устройство, способное, к примеру, открывать двери. Кроме того, iPhone и iPad должны быть разблокированы перед тем, как Siri сможет открывать сайты или приложения.

Источник: The New York Times

Читайте нас в Telegram - digital_bar
Читайте нас в Telegram - digital_bar

 Случилось что-то важное? Поделитесь новостью с редакцией.
Комментарии
0 комментариев
Подписаться 
Подписаться на дискуссию:
E-mail:
ОК
Вы подписаны на комментарии
Ошибка. Пожалуйста, попробуйте ещё раз.