Эксперты предлагают оснастить роботов «этическим черным ящиком»

Друзья, с момента основания проекта прошло уже 20 лет и мы рады сообщать вам, что сайт, наконец, переехали на новую платформу.

Какое-то время продолжим трудится на общее благо по адресу https://n-n-n.ru.
На новой платформе мы уделили особое внимание удобству поиска материалов.
Особенно рекомендуем познакомиться с работой рубрикатора.

Спасибо, ждём вас на N-N-N.ru

Ученый Алан Уинфилд, профессор робоэтики Университета Западной Англии в Бристоле, и Мариана Джиротка, профессор антропоцентрического программирования Оксфордского университета, считают, что роботы должны быть оснащены так называемым «этическим черным ящиком». Он станет эквивалентом записывающего устройства, используемого в авиации для выяснения всех последовательных причин, заставляющих пилотов принимать те или иные действия в случае чрезвычайных ситуаций, что позволяет следователям проследить за этими действиями и выяснить причины катастрофы.

Так как роботы все чаще стали покидать индустриальные фабрики и лаборатории и все чаще начинают взаимодействовать с людьми, то и важность повышенных мер безопасности в данном случае может быть полностью оправдана.

Уинфилд и Джиротка считают, что компании, занимающиеся производством роботов, должны взять пример, предложенный авиационной индустрией, которая обязана своей безопасности не только технологиям и надежной сборке, но и строгому следованию протоколов безопасности, а также серьезному уровню расследований авиационных происшествий. Именно этой индустрией были предложены черные ящики и кабины пилота, оснащенные звукозаписывающими устройствами, которые в случае инцидентов позволяют людям, занимающимся исследованием авиакатастроф, найти истинную причину этих событий и вынести из этого жизненно важные уроки для повышения безопасности и предотвращения подобных случаев в будущем.

«Серьезные дела требуют серьезных расследований. Но что вы будете делать, если следователь обнаружит, что в момент инцидента с роботом никаких внутренних записей произошедших событий не велось? В таком случае сказать, что же произошло на самом деле, будет практически невозможно», — прокомментировала Уинфилд изданию The Guardian.

Используемые в контексте робототехники этические черные ящики будут записывать все решения, цепь причинно-следственных связей принятия этих решений, все движения и данные с датчиков своего носителя. Наличие черного ящика с записанной информацией также поможет роботам в объяснении их действий тем языком, который пользователи-люди смогут понять, что только сильнее укрепит уровень взаимодействия между человеком и машиной и улучшит этот пользовательский опыт.

Уинфилд и Джиротка не единственные эксперты, обеспокоенные этическими вопросами вокруг искусственного интеллекта (ИИ). Мисси Каммингс, специалист по беспилотным летательным аппаратам и директор Лаборатории по исследованию вопросов взаимодействия человека и автоматизационных систем при Университете Дьюка в Северной Каролине (США), отметила в мартовском интервью изданию BBC, что надзор за ИИ является одной из важнейших проблем, для которой до сих пор не найдено решения.

«К настоящему моменту у нас нет четко выведенных инструкций. А без введения индустриальных стандартов для разработки и испытания подобных систем будет сложно вывести эти технологии на широкий уровень», — прокомментировала Каммингс.

В сентябре 2016 года такие компании, как Amazon, Facebook, Google, IBM и Microsoft, образовали союз «Партнерство по искусственному интеллекту во благо людей и общества» (Partnership on Artificial Intelligence to Benefit People and Society). Основными задачами этой организации является контроль за тем, чтобы разработка ИИ велась честно, открыто и с учетом этических норм. В январе этого года к организации присоединилась компания Apple. После этого многие другие технологические компании тоже выразили такое желание и присоединились к союзу.

В то же время аутрич-благотворительная организация Future of Life Institute (FLI) создала Asilomar AI Principles – базовый свод законов и этических норм для робототехники, разработанный для того, чтобы быть уверенным в благонадежности ИИ перед будущим человечества. Основателями FLI выступили такие компании, организации и институты, как DeepMind и MIT (Массачусетский технологический институт), а в ее научный консультативный совет входят такие личности, как Стивен Хокинг, Фрэнк Вильчек, Илон Маск, Ник Бостром и даже Морган Фримен, знаменитый американский актер.

В общем, если согласиться с мнением, что упреждающие идеи в сочетании с усердной работой острейших умов индустрии являются лучшей защитой против любых вероятных проблем, связанных с ИИ в будущем, то можно сказать, что человечество уже находится под надежной защитой.

Пожалуйста, оцените статью:
Пока нет голосов
Источник(и):

hi-news.ru