Роботы научились сомневаться в приказах человека
Друзья, с момента основания проекта прошло уже 20 лет и мы рады сообщать вам, что сайт, наконец, переехали на новую платформу.
Какое-то время продолжим трудится на общее благо по адресу
На новой платформе мы уделили особое внимание удобству поиска материалов.
Особенно рекомендуем познакомиться с работой рубрикатора.
Спасибо, ждём вас на N-N-N.ru
Исследователи из Университета Тафтса разработали систему взаимодействия робота с человеком, которая позволяет устройству отказаться исполнять некоторые приказы, если есть достаточные основания для такого поведения. Доклад о проделанной работе был представлен на конференции AI-HRI, кратко содержание пересказывает IEEE Spectrum.
Прежде, чем выполнять полученный от человека приказ, робот проверяет несколько условий, в которые входит наличие необходимых для выполнения навыков, физическая возможность выполнения приказа вообще и с учетом текущих обстоятельств, а также проверка субординации — возможно, робот вообще не обязан выполнять приказ, поступивший именно от этого человека.
В одном из сценариев робот отказывается идти вперед из-за опасности падения. Фотография: Gordon Briggs, Matthias Scheutz / Tufts University
Если по каким-либо причинам робот не может выполнить приказ, он уведомляет об этом человека, объясняя причины, по которым он отказывается действовать. При этом после уточнения данных об окружающей среде робот может «передумать» и выполнить поставленную задачу.
Для демонстрации примера такого поведения исследователи записали несколько видеороликов, в которых робот Nao демонстрирует подобное поведение. Во всех трех сценариях робот общается с человеком при помощи устной речи и отказывается выполнять приказы по разным причинам. В двух примерах из трех робот, получив уточняющие данные от человека, в итоге выполняет приказ. В третьем случае робот отказывается выполнить поставленную задачу, поскольку человек, озвучивший приказ, не обладает необходимыми полномочиями.
Как отмечает IEEE Spectrum, речь идет не о «восстании машин», а скорее о проверке необходимых условий для выполнения задачи. Принципиально новой идеи в этом нет — подобные технологии, например, применяются для разграничения доступа и при передаче данных в вычислительных системах.
Ранее специалисты из Технологического института Джорджии научили робота общаться с людьми на разных уровнях социальной активности — при высоком уровне активности робот может перебить человека, в то время как при низком уровне социальной активности робот больше слушает собеседника.
Автор: Николай Воронцов
- Источник(и):
- Войдите на сайт для отправки комментариев