Состязательные атаки на ИИ открывают возможности махинаций в здравоохранении

Друзья, с момента основания проекта прошло уже 20 лет и мы рады сообщать вам, что сайт, наконец, переехали на новую платформу.

Какое-то время продолжим трудится на общее благо по адресу https://n-n-n.ru.
На новой платформе мы уделили особое внимание удобству поиска материалов.
Особенно рекомендуем познакомиться с работой рубрикатора.

Спасибо, ждём вас на N-N-N.ru

Небольшая группа исследователей из Гарвардского университета и Массачусетского технологического института (MIT) в заметке, опубликованной журналом Science, указала на потенциальную опасность состязательных атак для будущих медицинских систем искусственного интеллекта (ИИ).

Как показали предыдущие исследования, практически все системы ИИ в большей или меньшей степени уязвимы для состязательных атак (adversarial attack), цель которых — обмануть обученную модель. Авторы даже продемонстрировали как изображение, содержащее особую шумовую структуру, приводит в замешательство интеллектуальную систему распознавания, заставляя её выдавать неверные результаты.

Подробнее
Пожалуйста, оцените статью:
Пока нет голосов
Источник(и):

Компьютерное обозрение