Ученые выступили против терминаторов
Друзья, с момента основания проекта прошло уже 20 лет и мы рады сообщать вам, что сайт, наконец, переехали на новую платформу.
Какое-то время продолжим трудится на общее благо по адресу
На новой платформе мы уделили особое внимание удобству поиска материалов.
Особенно рекомендуем познакомиться с работой рубрикатора.
Спасибо, ждём вас на N-N-N.ru
Ученые предупредили об опасности использования искусственного интеллекта (ИИ) при создании боевой техники и новейших систем вооружения. Более тысячи инженеров и исследователей подписали открытое письмо об этом, сообщает в среду, 29 июля, Русская служба ВВС.
«Если какая-либо крупная военная держава попытается вырваться вперед в развитии оружия с искусственным интеллектом, то глобальная гонка вооружений практически неизбежна. Конечная точка этой технологической траектории очевидна: автономное оружие станет завтрашним «Калашниковым»», — отмечается в документе.
Авторы письма призывают отказаться от использования ИИ при создании боевой техники. Они предупреждают, что гонка подобных вооружений приведет к непредсказуемым последствиям.
Вопрос о создании боевых роботов обсуждался в ООН, напоминает Русская служба ВВС. Международная организация рассматривает возможность запрета определенных типов автономных боевых систем.
Среди подписавших послание — известный физик и космолог Стивен Хокинг, предприниматель Элон Маск и один из основателей компании Apple Стив Возняк. Документ планируется передать делегатам международной конференции по искусственному интеллекту в Буэнос-Айресе.
- Источник(и):
-
1. lenta.ru
- Войдите на сайт для отправки комментариев