Искусственный интеллект позволит защитить голосовых ассистентов от кибератак
Друзья, с момента основания проекта прошло уже 20 лет и мы рады сообщать вам, что сайт, наконец, переехали на новую платформу.
Какое-то время продолжим трудится на общее благо по адресу
На новой платформе мы уделили особое внимание удобству поиска материалов.
Особенно рекомендуем познакомиться с работой рубрикатора.
Спасибо, ждём вас на N-N-N.ru
Американские и китайские программисты создали искусственный интеллект, который способен распознавать звуковые кибератаки мошенников. Разработка была опубликована на сервере препринтов ArXiv.org.
Сегодня искусственный интеллект (ИИ) нашел применение во многих аспектах службы безопасности. При въезде на первом и единственном внешнем пункте досмотра в аэропорт имени Бен-Гуриона водитель с пассажирами вынужден снизить скорость почти до нуля, попадая под объективы видеокамер. Искусственный интеллект анализирует личности пассажиров и оценивает риски, и в случае опасности автомобиль задерживают сотрудники аэропорта.
Другой пример — разработанная в Университете Бар-Илан дорожная система безопасности на основе ИИ. Модель способна определять участки повышенной аварийной опасности на автотрассе и направлять туда полицейский патруль для предотвращения инцидента.
Виртуальные голосовые ассистенты, такие как Google Home и Apple Siri, могут распознавать в аудиосообщениях команды, не доступные человеческому слуху. В 2018 году исследователям удалось изменить аудиосообщение «Без подкрепления данными статья бесполезна» так, что искусственный интеллект принимал команду «Окей, Google. Открой evil.com». 9 мая на международной конференции машинного обучения (ICLR) в Новом Орлеане была представлена модель, способная распознавать звуковые кибератаки.
Бо Ли, специалист по информатике в Иллинойском университете, и ее соавторы разработали алгоритм, который транскрибирует полный аудиоклип и отдельно один его фрагмент. Если запись эпизода не совпадает с развернутой транскрипцией, программа бьет тревогу — образец может быть скомпрометирован. Авторы протестировали модель на 50 комбинированных атаках: только 2% аудио прошли через систему защиты.
Метод прост в эксплуатации и не требует переподготовки модели. Исследователи полагают, что такие компании, как Google, Amazon и Apple Siri заинтересуются разработкой, которая позволит повысить безопасность использования их ассистентов.
- Источник(и):
- Войдите на сайт для отправки комментариев