Алгоритм, основанный на человеческих ошибках, поможет в обучении ИИ
Друзья, с момента основания проекта прошло уже 20 лет и мы рады сообщать вам, что сайт, наконец, переехали на новую платформу.
Какое-то время продолжим трудится на общее благо по адресу
На новой платформе мы уделили особое внимание удобству поиска материалов.
Особенно рекомендуем познакомиться с работой рубрикатора.
Спасибо, ждём вас на N-N-N.ru
Исследователи из MIT создали алгоритм, способный определять цели и планы, даже если эти планы могут потерпеть неудачу. Этот тип исследования улучшит работу вспомогательных технологий, роботов для совместной работы или ухода, а также цифровых помощников, таких как Siri и Alexa.
В классическом эксперименте психологов Феликса Варнекена и Майкла Томаселло над человеческим социальным интеллектом 18-месячный малыш наблюдает, как мужчина несет стопку книг к закрытому шкафу. Когда он подходит к шкафу, то несколько раз неуклюже стучит книгами о дверцу шкафа, затем издает озадаченный звук.
Затем происходит нечто удивительное: малыш предлагает помощь. Выявив цель человека, малыш подходит к шкафу и открывает его дверцы, позволяя мужчине поместить внутрь свои книги. Но как малыш с таким ограниченным жизненным опытом может сделать такой вывод?
Недавно компьютерные ученые перенаправили этот вопрос на компьютеры: как машины могут делать то же самое?
Критически важным компонентом для формирования такого понимания являются ошибки. Подобно тому, как малыш может сделать вывод о цели человека только на основании его неудач, машины, которые определяют цели человека, должны учитывать наши ошибочные действия и планы.
В стремлении воссоздать этот социальный интеллект в машинах исследователи из Лаборатории компьютерных наук и искусственного интеллекта Массачусетского технологического института (CSAIL) и Департамента мозговых и когнитивных наук создали алгоритм, способный определять цели и планы, даже если эти планы могут потерпеть неудачу.
Этот тип исследования в конечном итоге может быть использован для улучшения ряда вспомогательных технологий, роботов для совместной работы или ухода, а также цифровых помощников, таких как Siri и Alexa.
«Агент» и «наблюдатель» демонстрируют, как новый алгоритм MIT способен определять цели и планы, даже если эти планы могут потерпеть неудачу. Здесь агент составляет ошибочный план достижения синего драгоценного камня, который наблюдатель считает возможным. Предоставлено: Массачусетский технологический институт.
«Эта способность учитывать ошибки может иметь решающее значение для создания машин, которые надежно делают выводы и действуют в наших интересах, — объясняет Тан Чжи-Сюань, доктор философии, студент Массачусетского технологического института (MIT) и ведущий автор новой статьи об исследовании. — В противном случае системы ИИ могут ошибочно заключить, что, поскольку мы не смогли достичь наших целей более высокого порядка, эти цели в конце концов были нежелательными».
Для создания своей модели команда использовала Gen, новую платформу программирования ИИ, недавно разработанную в MIT, для объединения символического планирования ИИ с байесовским выводом. Байесовский вывод обеспечивает оптимальный способ объединения неопределенных убеждений с новыми данными и широко используется для оценки финансовых рисков, диагностического тестирования и прогнозирования выборов.
При создании алгоритма «Последовательный поиск обратного плана (SIPS)» ученых вдохновил общий способ человеческого планирования, который в значительной степени неоптимален. Человек может не планировать все заранее, а скорее формировать частичные планы, выполнять их и, исходя из новых результатов, снова строить планы. Хотя это может привести к ошибкам из-за недостаточного обдумывания «заранее», такой тип мышления снижает когнитивную нагрузку.
Ученые надеются, что их исследование заложит новые философские и концептуальные основы, необходимые для создания машин, которые действительно понимают человеческие цели, планы и ценности. Новый базовый подход моделирования людей как несовершенных мыслителей кажется инженерам очень многообещающим.
- Источник(и):
- Войдите на сайт для отправки комментариев