Группа экспертов и правозащитников призывает запретить разработку оружия, контролируемого ИИ
Друзья, с момента основания проекта прошло уже 20 лет и мы рады сообщать вам, что сайт, наконец, переехали на новую платформу.
Какое-то время продолжим трудится на общее благо по адресу
На новой платформе мы уделили особое внимание удобству поиска материалов.
Особенно рекомендуем познакомиться с работой рубрикатора.
Спасибо, ждём вас на N-N-N.ru
Развитие технологии беспилотных летательных аппаратов значительно продвинуло вперед разработки в сфере военной техники. Дроны и прочие системы оружия в итоге могут полностью заменить мужчин-солдат на поле битвы. Однако насколько этичен сам факт доступа искусственного интеллекта к оружию?
Группа экспертов, собравшаяся на заседании Американской ассоциации содействия развитию науки в Вашингтоне, округ Колумбия, резко осудила эту возможность: профессора по этике и правозащитники призывают запретить разработку оружия, контролируемого ИИ.
В заявлении ученых говорится, что автономное оружие может работать непредсказуемым образом и убивать невинных людей. Эксперты по этике также утверждают, что право на лишение человека жизни слишком серьезно и нельзя позволить системам искусственного интеллекта убивать людей без какого-либо вмешательства и контроля со стороны разработчиков и военных.
«Мы не говорим о гуляющих и говорящих роботах-терминаторах, которые собираются захватить мир. То, что нас беспокоит, реальнее и неизбежнее — это системы обычных вооружений, наделенные автономией и определенной самостоятельностью. Такие разработки все чаще становятся реальностью. Дроны — довольно очевидный пример, но есть и военные самолеты, которые взлетают, передвигаются и приземляются самостоятельно, и роботы-часовые, которые могут идентифицировать любое движение. Все они — предшественники автономного оружия», — уточняет директор международной неправительственной организации по защите прав человека Human Rights Watch Мэри Уэрхэм (Mary Wareham).
Human Rights Watch — одна из 89 неправительственных организаций из 50 стран, которые сформировали кампанию «Остановить роботов-убийц», добиваясь заключения международного договора.
Инициативу нью-йоркской организации о запрете поддержал Райан Гариепи (Ryan Gariepy), технический директор Clearpath Robotics. Его компания берет военные контракты, но осуждает системы ИИ для ведения войны, а сам Гариепи заявил, что не будет заниматься подобными разработками, ведь когда подобная система терпит неудачу, ее последствия слишком сложно предсказать.
«Какой бы продвинутой ни была система, состояние ИИ ограничено контекстом распознавания изображений, то есть не имеет жизненно важных деталей, чтобы иметь право судить, кого убивать на поле боя, а кого оставить в живых, в «вакууме» принятие такого решения попросту неприемлемо. Фактически это решение принимается военными, программистами и учеными за тысячи миль от фронта, которые не имеют представления о ситуации, в которой развернуто оружие», — утверждает Гариепи.
Возникает еще один важный вопрос: кто несет ответственность, когда машина решает забрать человеческую жизнь? По словам сотрудника частного университета в Нью-Йорке New School Питера Асаро,
передача роботу полномочий на убийство — это нарушение прав человека, так как машины не могут считаться существами с моралью, а потому не могут нести ответственность за принятие решений о жизни и смерти.
Однако использование управляемых искусственным интеллектом систем оружия осуждается не всеми, а инициатива против ИИ встретила и сопротивление. К примеру, США и Россия были в числе нескольких стран, которые еще в сентябре, после недельных переговоров в Женеве, выступили против прямого запрета на автономное оружие.
- Источник(и):
- Войдите на сайт для отправки комментариев