Состязательные атаки на ИИ открывают возможности махинаций в здравоохранении
Друзья, с момента основания проекта прошло уже 20 лет и мы рады сообщать вам, что сайт, наконец, переехали на новую платформу.
Какое-то время продолжим трудится на общее благо по адресу
На новой платформе мы уделили особое внимание удобству поиска материалов.
Особенно рекомендуем познакомиться с работой рубрикатора.
Спасибо, ждём вас на N-N-N.ru
Небольшая группа исследователей из Гарвардского университета и Массачусетского технологического института (MIT) в заметке, опубликованной журналом Science, указала на потенциальную опасность состязательных атак для будущих медицинских систем искусственного интеллекта (ИИ).
Как показали предыдущие исследования, практически все системы ИИ в большей или меньшей степени уязвимы для состязательных атак (adversarial attack), цель которых — обмануть обученную модель. Авторы даже продемонстрировали как изображение, содержащее особую шумовую структуру, приводит в замешательство интеллектуальную систему распознавания, заставляя её выдавать неверные результаты.
- Источник(и):
- Войдите на сайт для отправки комментариев