Валерия
Россохина

Команда Ингейт

Американские ученые создали технологию для взлома голосовых помощников

Американские ученые создали технологию для взлома голосовых помощников
11 мая 2018

Группа ученых из калифорнийского университета Беркли разработала технологию, которая позволяет атаковать голосовые помощники и прочие устройства для дома при помощи команд, спрятанных в записи музыки и устной речи.

pexels-photo-271265.jpeg

Исследователи объяснили, что системы распознавания голоса интерпретируют звуки, которые слышат, в буквы. Однако небольшие изменения в звуках позволяют «отменить» те звуки, которые должно «услышать» устройство, таким образом передавая новую команду. Специалисты поделились документом, в котором описывается подобная атака.

Сейчас нет доказательств того, что кто-то использует подобную схему вне лабораторных условий. Но один из авторов исследования не исключает, что злоумышленники уже могут работать в данном направлении.

Представители Google и Amazon сообщили, что их голосовые помощники используют распознавание голоса. Однако в компаниях не уточнили, как защищают системы от скрытых команд. В Apple отметили, что их «умная» колонка Homepod не задумывалась как устройство, способное, к примеру, открывать двери. Кроме того, iPhone и iPad должны быть разблокированы перед тем, как Siri сможет открывать сайты или приложения.

Источник: The New York Times

Рейтинг 5, голосов 7

Комментарии

0 комментариев
Чтобы оставить комментарий, войдите на сайт через:
Или выберите имя:

Используйте для пароля только буквы латинского алфавита и цифры от 0 до 9. Длина пароля должна быть не менее шести символов.

Будь в курсе

Главные новости, кейсы и статьи за месяц – у тебя в почте:

Отправляя форму, вы принимаете условия обработки персональных данных