Ученый из DARPA: «Нужно прекратить создание роботов-убийц. На время»
Друзья, с момента основания проекта прошло уже 20 лет и мы рады сообщать вам, что сайт, наконец, переехали на новую платформу.
Какое-то время продолжим трудится на общее благо по адресу
На новой платформе мы уделили особое внимание удобству поиска материалов.
Особенно рекомендуем познакомиться с работой рубрикатора.
Спасибо, ждём вас на N-N-N.ru
Ученые не решают этические вопросы, а сконцентрированы на разработке конкретных технологий. Если вы хотите избежать появления роботов-убийц, деятельность команд в этой сфере просто надо заморозить. Ученый Кристофер Хекман, деятельность которого финансирует Пентагон, рассуждает, как сделать это, не навредив прогрессу.
Кристофер Хекман — специалист в области компьютерных технологий, который работает в Колорадском университете в Боулдере и деятельность которого финансирует DARPA — агентство по разработке перспективных вооружений при Минобороны США. В своем эссе на ресурсе Conversation Хекман указывает на прогресс в области автоматизации, который в его сфере деятельности приближает серьезную и неконтролируемую опасность: появление роботов, которые сами принимают решение об убийстве людей.
Ученый призывает ограничить работы в этой области. Но для этого сначала надо решить вопрос о том, как сделать это правильно.
«Потенциал добра [вследствие развития ИИ] слишком велик, чтобы его игнорировать. Однако я также обеспокоен рисками, которые несут новые технологии, особенно если они попадут в руки злоумышленников».
В эссе Хекман рассматривает несколько вариантов внедрить такие ограничения.
Большинство ученых согласны, что они нужны, но при этом сильнейшие государства — США, Китай, Россия, Британия — ведут активные разработки в области военных роботов, наделяя их все большей автономностью.
Законодательные ограничения или добровольные союзы ученых в этом случае не сработают, полагает он. В обоих сценариях преимущество получает наименее этичная сторона, а такого быть не должно.
По мнению Хекмана, единственный реализуемый вариант — саморегулируемые надзорные организации национального уровня, которые будут оценивать все исследования в данной области. С одной стороны, это не требует тотального запрета на разработку определенных тем, с другой — обеспечит квалифицированный контроль.
Отметим, что к созданию надзорного ведомства в области ИИ недавно призывал Илон Маск, традиционно очень обеспокоенный будущим человечества в эпоху всеведущих алгоритмов. Он также оговаривался:
«Проблема в том, что правительство действует медленно, обычно лишь тогда, когда нечто ужасное уже произошло и в ответ на общественный резонанс».
Академическая инициатива, внедрить которую призывает Хекман, позволила бы заняться проблемой до этого момента.
- Источник(и):
- Войдите на сайт для отправки комментариев