В MIT роботов научили помогать и мешать друг другу
Друзья, с момента основания проекта прошло уже 20 лет и мы рады сообщать вам, что сайт, наконец, переехали на новую платформу.
Какое-то время продолжим трудится на общее благо по адресу
На новой платформе мы уделили особое внимание удобству поиска материалов.
Особенно рекомендуем познакомиться с работой рубрикатора.
Спасибо, ждём вас на N-N-N.ru
Автор оригинала: Adam Zewe. Новая система машинного обучения помогает роботам понимать и выполнять социальные действия. В моделируемой среде робот наблюдает за компаньоном, догадывается о его цели, а затем помогает или мешает другому роботу, исходя из своих целей. Исследователи показали, что модель выполняет реалистичные действия: люди в основном согласились с моделью в том, какой тип поведения был продемонстрирован.
Исследователи MIT включили социальное взаимодействие в рамки робототехники, что позволяет смоделированным машинами понять, что значит помогать или мешать друг другу, и научиться выполнять социальные действия самостоятельно. Включение социальных навыков у роботов может привести к более гладкому, позитивному взаимодействию. Например, робот может использовать эти возможности, чтобы помочь создать лучшую среду для пожилых людей. Новая модель может позволить учёным количественно измерять социальные взаимодействия. Это может помочь психологам изучать аутизм или анализировать влияние антидепрессантов.
«Роботы будут жить в нашем мире довольно скоро, и им на самом деле нужно научиться общаться с нами на условиях человека. Они должны понимать, когда им пора помочь, а когда — посмотреть, что они могут сделать, чтобы предотвратить некое событие. Мы едва начали развитие области, но мне кажется, что это — первая очень серьёзная попытка понять, что означает для людей и машин социальное взаимодействие», — рассказывает Борис Кац, руководитель группы InfoLab в Лаборатории компьютерных наук и искусственного интеллекта Массачусетского технологического института (CSAIL) и член Центра мозга, разума и машин (CBMM). Результаты исследования представят на конференции по обучению роботов в ноябре.
Социальная симуляция
Для изучения социальных взаимодействий исследователи создали симуляцию среды, в которой роботы, перемещаясь по двумерной сетке, преследуют физические и социальные цели. Физическая цель связана с окружающей средой.
Физической целью робота, к примеру, может быть навигация к дереву в определённой точке. Социальная цель предполагает угадать, что пытается сделать другой робот, а затем выбрать действия на основе оценки, например, один робот может помочь другому в поливке дерева.
Исследователи используют свою модель, чтобы определить физические цели робота, его социальные цели, а также для определить, какое внимание следует уделять одной, а какое — другой цели.
Робот получает вознаграждение за действия, приближающие его к достижению поставленных целей.
- Если робот пытается помочь своему товарищу, он изменяет своё вознаграждение в соответствии с вознаграждением другого робота.
- Если он пытается помешать, он настраивает своё вознаграждение на противоположное.
Планировщик, т. е. алгоритм, который решает, какие действия должен предпринять робот, использует это постоянно обновляемое вознаграждение, чтобы направлять робота на выполнение сочетания физических и социальных целей.
«Мы открыли новую математическую основу моделирования социального взаимодействия между двумя агентами. Если вы хотите попасть в точку X, я — другой робот и вижу вашу попытку достичь цели, то я могу помочь вам. Переместить Х поближе к вам, найти другое место Х лучше или сделать что-либо, что вы в месте Х должны сделать вы. Наша формулировка позволяет обнаружить «как»; мы уточняем «что» с точки зрения математического значения социальных взаимодействий», — рассказывает Теджвани.
По словам Барбу, сочетание физических и социальных целей важно для создания реалистичного взаимодействия: у помогающих друг другу людей есть пределы дозволенного. Например, разумный человек, скорее всего, не отдаст незнакомцу свой бумажник.
Исследователи использовали следующую математическую модель определения типов роботов:
- Робот уровня 0 имеет только физические цели и не может рассуждать социально.
- Робот уровня 1 имеет физические и социальные цели, но предполагает, что все остальные роботы имеют только физические цели.
- Роботы первого уровня могут предпринимать действия, основанные на физических целях других роботов, например помогать или мешать.
- Робот уровня 2 предполагает, что у других роботов есть социальные и физические цели; эти роботы могут выполнять более сложные действия, например объединяться, чтобы помогать коллективно.
Эффективность модели
Чтобы проверить, насколько их модель сопоставима с человеческими представлениями о социальном поведении, учёные создали 98 различных сценариев с роботами уровней 0, 1 и 2.
Двенадцать человек просмотрели 196 видеороликов с взаимодействием роботов, а затем этих людей попросили оценить физические и социальные цели этих роботов. В большинстве случаев их модель согласовывалась с тем, что думали люди о социальных взаимодействиях в каждом кадре.
«У нас есть долгосрочный интерес как к созданию вычислительных моделей для роботов, так и к более глубокому изучению человеческих аспектов [социального поведения]. Мы хотим выяснить, какие особенности этих видеозаписей люди используют для понимания социального взаимодействия. Можем ли мы провести объективный тест на способность распознавать социальные взаимодействия? Возможно, существует способ научить людей распознавать эти социальные действия и улучшить их способности. Мы ещё очень далеки от этого, но даже просто возможность эффективно измерять социальные действия — это уже большой шаг вперёд», — считает Барбу.
Развитие гибкости
Исследователи работают над созданием системы с 3D-агентами в среде, которая позволяет, например, манипулировать бытовыми предметами. Планируется включить среды, где действия могут быть неудачными.
Исследователи также хотят включить в модель планировщик роботов на основе нейронной сети, который учится на своём опыте и затем работает быстрее. Учёные также надеются провести эксперимент по сбору данных о признаках, по которым люди определяют, участвуют ли два робота в социальном взаимодействии.
«Надеюсь, мы получим эталон, позволяющий исследователям работать над этими социальными действиями, который вдохновит на научные и инженерные достижения, что мы видели в других областях, таких как распознавание объектов и действий», — делится Барбу.
«Я думаю, что это прекрасное применение структурированного мышления для решения сложной, но актуальной задачи, — утверждает Томер Ульман, доцент кафедры психологии Гарвардского университета и руководитель лаборатории вычислений, познания и развития, который не принимал участия в этом исследовании. Даже маленькие дети, похоже, понимают социальные действия, такие как «помочь» или «помешать», но у нас ещё нет машин, которые могли бы выполнять эти рассуждения с гибкостью, подобной человеческой. Считаю, что модели, где агенты думают о вознаграждениях других и с учётом социального контекста планируют, как лучше помешать им или поддержать их, — хороший шаг в правильном направлении».
- Источник(и):
- Войдите на сайт для отправки комментариев