Известные во всем мире разработчики ИИ договорились не создавать умное оружие

Друзья, с момента основания проекта прошло уже 20 лет и мы рады сообщать вам, что сайт, наконец, переехали на новую платформу.

Какое-то время продолжим трудится на общее благо по адресу https://n-n-n.ru.
На новой платформе мы уделили особое внимание удобству поиска материалов.
Особенно рекомендуем познакомиться с работой рубрикатора.

Спасибо, ждём вас на N-N-N.ru

Технологии искусственного интеллекта развиваются бурными темпами. Специалисты научили ИИ многому, сейчас его слабая форма (сильная, к счастью или к несчастью пока не создана) работает в промышленности, судоходстве, развлекательной сфере и многих других отраслях. Но что насчет военного дела? Да, здесь ИИ тоже используется, ведь предиктивный анализ траектории ракеты или транспортного средства, действий противника, разработка собственной стратегии — со всем этим может справиться искусственный интеллект.

Но что, если встроить ИИ любого уровня в оружие, не станет ли оно эффективнее? Скорее всего, станет, и будет весьма «производительным». Но здесь появляются уже вопросы этики. Может ли машина распоряжаться судьбами людей? Многие эксперты из сферы технологий считают, то нет. И эти «многие» на днях подписали декларацию — своего рода обещание никогда не принимать участие в разработке умного оружия. Среди прочих специалистов, которые приняли участие в создании и подписании декларации — Илон Маск, представители DeepMInd и сотрудники многих других компаний, где так либо иначе затрагиваются вопросы искусственного интеллекта. По мнению группы ученых и предпринимателей, которые оставили свои подписи под меморандумом, решать убивать ли человека или нет должен все же другой человек, а не машина. И груз этого решения ложится на плечи того, кто его принял.

В случае же с машиной никаких моральных колебаний нет — систему отправили на дежурство, скажем, на прочесывание проселочных дорог во время войны, и она отстреливает врагов как подсказывает совесть вычислительный блок. По словам экспертов, разработка умного оружия с элементами ИИ может стать дестабилизирующим фактором как для любой страны, так и для ее граждан.

Текст декларации относительно использования ИИ в создании оружия был опубликован после завершения конференции IJCAI (International Joint Conference on Artificial Intelligence), проходившей с Стокгольме. Она была организована научно-исследовательским институтом Future of Life Institute. Он занимается изучением рисков существования человечества. Институт ранее призывал отказаться от идеи создания умного летального оружия. Сейчас эта идея нашла понимание и начинает распространяться все более широко.

Среди подписавшихся — глава компаний SpaceX и Tesla Илон Маск, три сооснователя дочерней компании Google — DeepMind, создатель Skype Яан Таллинн, плюс известные в мире технологий исследователи искусственного интеллекта Стюарт Рассел, Йошуа Бенджио, Юрген Шмидхубер.

Отдельно подписавшиеся отметили то, что их общая инициатива должна помочь перейти от слов к делу в плане отказа от умного летального оружия. Нет, революцию никто устраивать не собирается, основная задача — показать опасность постепенной интеллектуализации оружия любого типа.

«Оружие, которое самостоятельно решает, кого убивать — отвратительная и дестабилизирующая идея, вроде биологического оружия. К идее умного оружия следует относиться точно так же, как и к оружию биологическому».

Здесь, правда, есть одна сложность. Дело в том, что отличить действительно автономное и «умное» оружие от того, которое таковым не является, достаточно сложно. Черта призрачная. Когда обычное hi-tech оружие прекращает быть глупым, умнеет и начинает решать, кого оставить в живых, а кого — убить? Автоматическая турель, которая отслеживает появление людей по тепловому излучению — можно ли использовать такое оружие? Да и велика ли разница между умным оружием и обычным, если та же турель будет автоматически наводиться, а человек — просто жать на гашетку?

*Военные дроны весьма «умны», некоторыми оператор управляет лишь время от времени, а остальное время они выполняют поставленную задачу самостоятельно

Кроме того, сама декларация припозднилась — у примерно 30 различных стран на вооружении есть летальные системы, которые с натяжкой или без, но можно назвать умными.

Кстати, интересный факт — разработчики корпорации Google в прямом смысле слова взбунтовались, когда услышали о том, что компания собирается разрабатывать автономные системы для Пентагона. А именно — нелетального дрона с ИИ.

Говоря об умном оружии и его будущем, нельзя не вспомнить научно-фантастический рассказ (автора и название, к сожалению, не помню), где разумную боеголовку с уровнем развития интеллекта как у 5-летнего ребенка послали выполнять задание. Но при подлете к вражеской базе она обнаружила, что там живут люди, такие же, как и на ее собственной базе. Осознав это, она решила доложить обо всем своему создателю и отправилась в обратный полет. Заканчивается рассказ тем, что ракета влетает в окно дома, где живет ее создатель, но по понятным причинам ничего рассказать не успевает.

Пожалуйста, оцените статью:
Ваша оценка: None Средняя: 5 (1 vote)
Источник(и):

habr.com