Ученые изобрели способ клонирования и кражи ИИ

Друзья, с момента основания проекта прошло уже 20 лет и мы рады сообщать вам, что сайт, наконец, переехали на новую платформу.

Какое-то время продолжим трудится на общее благо по адресу https://n-n-n.ru.
На новой платформе мы уделили особое внимание удобству поиска материалов.
Особенно рекомендуем познакомиться с работой рубрикатора.

Спасибо, ждём вас на N-N-N.ru

Изображение с сайта hightech.fm

Команда ученых из американского Корнелл Тек, Университета Северной Каролины и швейцарского института EPFL в Лозанне выполнили обратное проектирование ИИ на основании запросов и анализа ответов. Таким образом они смогли с почти 100% точностью скопировать чужой ИИ.

В сфере информатики считается, что, обучая ИИ, мы создаем черный ящик: поглотив большое количество данных, система начинает выдавать ответы, алгоритм появления которых никто, даже создатели этого ИИ, не могут до конца понять. Однако, недавнее исследование доказывает, что ИИ можно понять — и украсть — даже извне, пишет Wired.

«Вы берете черный ящик и реконструируете его внутренности через очень узкое отверстие интерфейса, — говорит профессор Ари Джуэлс. — В некоторых случаях можно сделать действительно идеальную реконструкцию».

Этот трюк можно использовать на сервисах, которые предоставляют такие компании, как, например, Amazon, Google, Microsoft и BigML, которые позволяют пользователю публиковать или раскрывать результат машинного обучения. Метод ученых, который они назвали «извлекающей атакой» (extraction attack), может дублировать ИИ, считающиеся частной собственностью, а в некоторых случаях даже восстанавливать конфиденциальные данные, на основе которых ИИ обучали.

Пожалуйста, оцените статью:
Ваша оценка: None Средняя: 5 (3 votes)
Источник(и):

hightech.fm