Алгоритм MIT учит системы искусственного интеллекта скептицизму

Друзья, с момента основания проекта прошло уже 20 лет и мы рады сообщать вам, что сайт, наконец, переехали на новую платформу.

Какое-то время продолжим трудится на общее благо по адресу https://n-n-n.ru.
На новой платформе мы уделили особое внимание удобству поиска материалов.
Особенно рекомендуем познакомиться с работой рубрикатора.

Спасибо, ждём вас на N-N-N.ru

Новый алгоритм глубокого обучения, разработанный исследователями Массачусетского технологического института, учит системы искусственного интеллекта относиться к вводным данным скептически. Команда из MIT объединила алгоритм обучения данными с глубокой нейронной сетью, которые используют, например, для обучения алгоритма игре в видеоигры.

Чтобы сделать системы искусственного интеллекта устойчивой к противоречащим данным, исследователи попытались внедрить защиту для контролируемого обучения.

Традиционно нейронная сеть обучается связывать определенные метки или действия с заданными входными данными. Например, нейронная сеть, которая получает тысячи изображений, помеченных как кошки, наряду с изображениями, помеченными как дома и хот-доги, должна правильно обозначить новое изображение как кошку.

В надежных системах искусственного интеллекта те же методы контролируемого обучения могут быть протестированы с частично измененными версиями изображения. Если сеть попадает на одну и ту же метку — кошка — есть высокий шанс, что изображение с изменениями или без является кошкой.

Чтобы использовать нейронные сети в критических для безопасности сценариях, мы должны были выяснить, как принимать решения в реальном времени, основываясь на наихудших предположениях, объясняют авторы работы.

Поэтому команда стремилась опираться на еще одну форму машинного обучения, которая не требует связывания помеченных входных данных с выходными, а скорее направлена на усиление определенных действий в ответ на входные данные. Этот подход обычно используется для обучения компьютеров игре в шахматы и Го.

Авторы считают, что новый алгоритм CARRL может помочь роботам безопасно справляться с непредсказуемыми взаимодействиями в реальном мире.

Пожалуйста, оцените статью:
Пока нет голосов
Источник(и):

ХайТек