Американские ученые создали технологию для взлома голосовых помощников

Американские ученые создали технологию для взлома голосовых помощников
11 мая 2018
Подпишитесь на нас в Telegram

Группа ученых из калифорнийского университета Беркли разработала технологию, которая позволяет атаковать голосовые помощники и прочие устройства для дома при помощи команд, спрятанных в записи музыки и устной речи.

pexels-photo-271265.jpeg

Исследователи объяснили, что системы распознавания голоса интерпретируют звуки, которые слышат, в буквы. Однако небольшие изменения в звуках позволяют «отменить» те звуки, которые должно «услышать» устройство, таким образом передавая новую команду. Специалисты поделились документом, в котором описывается подобная атака.

Сейчас нет доказательств того, что кто-то использует подобную схему вне лабораторных условий. Но один из авторов исследования не исключает, что злоумышленники уже могут работать в данном направлении.

Представители Google и Amazon сообщили, что их голосовые помощники используют распознавание голоса. Однако в компаниях не уточнили, как защищают системы от скрытых команд. В Apple отметили, что их «умная» колонка Homepod не задумывалась как устройство, способное, к примеру, открывать двери. Кроме того, iPhone и iPad должны быть разблокированы перед тем, как Siri сможет открывать сайты или приложения.

Источник: The New York Times

Друзья, теперь вы можете поддержать Лайкни https://pay.cloudtips.ru/p/8828f748
Ваши донаты помогут нам и дальше радовать вас полезным контентом.

Нас удобно читать в соцсетях. Подписывайся!

Комментарии

0 комментариев
Чтобы оставить комментарий, войдите на сайт через:

Будь в курсе

Главные новости, кейсы и статьи за месяц – у тебя в почте:

Отправляя форму, вы принимаете условия обработки персональных данных