В России научились защищать ИИ-системы обнаружения объектов от кибератак

Друзья, с момента основания проекта прошло уже 20 лет и мы рады сообщать вам, что сайт, наконец, переехали на новую платформу.

Какое-то время продолжим трудится на общее благо по адресу https://n-n-n.ru.
На новой платформе мы уделили особое внимание удобству поиска материалов.
Особенно рекомендуем познакомиться с работой рубрикатора.

Спасибо, ждём вас на N-N-N.ru

Метод усовершенствования нейросетей, который в том числе позволяет пресекать попытки обойти защиту систем видеонаблюдения на их основе, разработан в России. Об этом сообщил корреспонденту ТАСС инженер Исследовательского центра доверенного искусственного интеллекта на базе Института системного программирования им. В. П. Иванникова РАН Леонид Старых.

Решение представлено на открытой конференции ИСП РАН, посвященной 75-летию отечественных информационных технологий, которая проходит 4–5 декабря в Москве.

«Мы развиваем платформу доверенного искусственного интеллекта (ИИ), которая позволяет разработчикам проверять разрабатываемые нейронные сети на уязвимости и защищаться от них. [Платформа уже позволяет обучать нейросеть в основе системы обнаружения объектов,] <…> распознавать области, которые были атакованы, "закрашивать» их, и после этого нейронная сеть, несмотря на атаку, способна обнаруживать человека", – сказал Старых.

Ученый пояснил, что злоумышленники с помощью специальных изображений на объектах могут сделать так, что системы обнаружения воспринимают их как часть фона и не замечают. Новый подход позволяет защищать системы от «слепоты» и принятия неверных решений. Это поможет повысить безопасность эксплуатации беспилотников, а также защитить пользователей функции «оплата лицом», считают авторы.

«Сегодня не существует платформ, которые позволяют производить проверку на атакуемость и защиту широкого спектра моделей [машинного обучения], в том числе в сфере классификации изображений и текстов. Данная платформа позволяет для относительно произвольного алгоритма машинного обучения получить его защищенную версию», – пояснил ТАСС младший научный сотрудник Исследовательского центра доверенного искусственного интеллекта на базе ИСП РАН Максим Рындин, отметив, что решение также может использоваться для защиты ИИ-систем от «естественного» устаревания в связи с появлением новых данных, на которых модели не обучались.

Пожалуйста, оцените статью:
Пока нет голосов
Источник(и):

ТАСС