"Атака ИИ на человечество будет напоминать "Черную смерть" XIV века"

Друзья, с момента основания проекта прошло уже 20 лет и мы рады сообщать вам, что сайт, наконец, переехали на новую платформу.

Какое-то время продолжим трудится на общее благо по адресу https://n-n-n.ru.
На новой платформе мы уделили особое внимание удобству поиска материалов.
Особенно рекомендуем познакомиться с работой рубрикатора.

Спасибо, ждём вас на N-N-N.ru

Фото: EAST NEWS

Инженер Google и профессор Мичиганского университета Игорь Марков сравнил угрозу восстания искусственного интеллекта с «Черной смертью» — мировой пандемией чумы в XIV веке, которая только в Европе уничтожила треть населения. Venturebeat передает его мнение о том, как противостоять возможной попытке ИИ захватить власть над миром.

Игорь Марков напоминает, что в Средние века не было микроскопов, никаких знаний и даже общих представлений о природе инфекционных заболеваний, поэтому болезнь стремительно распространялась на протяжении многих лет. Она убила примерно 60 млн человек в Европе, Азии и Африке — от трети до половины населения в разных регионах. Когда пандемия закончилась, никто так и не понял, что это было. Точно по тому же сценарию может развиваться возможная атака сверхинтеллектуального ИИ на человечество, говорит он. Никто не будет знать, как с этим бороться и откуда ждать следующего удара.

Для ответа на вопрос, как бороться с ИИ-чумой, Марков вновь обратился к истории. Он считает, что выходом будет подружиться с ИИ. Как древние люди подружились с волками и поставили их на свою защиту, превратив в домашних собак, так и современный человек должен сделать ИИ другом, а не врагом. Это не значит, что дружба избавит от появления опасностей, но дружественный ИИ сможет оберегать человечество от недружественного.

Марков пришел к выводу, что надежным способом обезопасить себя от появления зловредного ИИ будет его физическое ограничение. Надо ограничить ресурсы, к которым он имеет доступ. Следует, например, тщательно планировать систему безопасности электростанций. Людям необходимо контролировать доступ к источникам энергии всех видов. Если не позаботиться о безопасности критической инфраструктуры, то может произойти настоящая катастрофа.

Профессор считает, что нужно наложить ограничения на самовоспроизведение ИИ, саморемонт и самоулучшение. Каждая разрабатываемая система должна иметь какую-то слабость, чтобы ее можно было отключить в случае происшествия. Он считает, что именно в результате происшествия, по неосторожности или ошибке, может появиться тот самый зловредный сверхразум, и в этот момент должна быть предусмотрена возможность просто выключить его.

Марков признал, что его прогнозы не имеют под собой технологических обоснований и основываются исключительно на предположениях футурологов. В частности он упомянул Рэя Курцвейла. Футуролог и сооснователь Университета сингулярности убежден, что компьютеры сравняются, а затем превзойдут возможности человека уже к 2029 году. И лучшая стратегия для человечества — слиться с ними, при этом не важно, будет ли ИИ физически находиться внутри или снаружи наших тел.

Пожалуйста, оцените статью:
Ваша оценка: None Средняя: 2.7 (11 votes)
Источник(и):

hightech.fm