Исследование показало, что люди не смогут управлять сверхразумными машинами

Друзья, с момента основания проекта прошло уже 20 лет и мы рады сообщать вам, что сайт, наконец, переехали на новую платформу.

Какое-то время продолжим трудится на общее благо по адресу https://n-n-n.ru.
На новой платформе мы уделили особое внимание удобству поиска материалов.
Особенно рекомендуем познакомиться с работой рубрикатора.

Спасибо, ждём вас на N-N-N.ru

Международная группа ученых продемонстрировала, что управление сверхразумным искусственным интеллектом невозможно. Работа опубликована в Journal of Artificial Intelligence Research. Опасность, которая может исходить от сверхразумного ИИ, как известно, в красках описана в блокбастерах о Терминаторе.

Представители разных научных дисциплин, в том числе специалисты из Центра людей и машин Института развития человека Макса Планка, решили проверить, насколько человек способен управлять сверхинтеллектуальными роботами.

«Сверхразумная машина, которая управляет миром — звучит как научная фантастика. Но уже есть роботы, выполняющие определенные важные задачи независимо. При этом программисты вообще не понимают, как они этому научились. В результате возникает вопрос: может ли этот процесс в какой-то момент стать неконтролируемым и опасным для человечества?» — говорит один из авторов исследования Мануэль Себриан, руководитель группы цифровой мобилизации в Центре людей и машин Института Макса Планка.

Чтобы ответить на этот вопрос, ученые использовали моделирование и теоретические расчеты. Как выяснилось, даже если заложить в сверхразумную машину данные об этических принципах и ограничить ее связи с внешним миром (например, отключить доступ в интернет), это не спасет человечество от рисков того, что подобная система выйдет из-под контроля.

Дело в том, что, согласно теории информатики, любой из алгоритмов такого сдерживания — будь то программы об этических принципах или ограничение доступа к внешнему миру — уязвим и при определенных обстоятельствах вполне способен отключить сам себя. Поэтому специалисты делают вывод, что управлять сверхразумным ИИ человек попросту не сможет и ситуация рано или поздно может выйти из-под контроля.

«Мы утверждаем, что полное сдерживание в принципе невозможно из-за фундаментальных ограничений, присущих самому вычислению. Сверхразум будет содержать программу, которая включает в себя все программы, осуществляемые при помощи универсальной машины Тьюринга, потенциально столь же сложной, как состояние мира», — заключают исследователи.

Пожалуйста, оцените статью:
Ваша оценка: None Средняя: 3.7 (3 votes)
Источник(и):

Naked Science