Эксперт по машинному обучению призывает остановить распространение ИИ
Друзья, с момента основания проекта прошло уже 20 лет и мы рады сообщать вам, что сайт, наконец, переехали на новую платформу.
Какое-то время продолжим трудится на общее благо по адресу
На новой платформе мы уделили особое внимание удобству поиска материалов.
Особенно рекомендуем познакомиться с работой рубрикатора.
Спасибо, ждём вас на N-N-N.ru
Один из самых активных в мире критиков искусственного интеллекта (ИИ) выступил с решительным призывом не только поставить разработку ИИ на паузу, но и вообще положить ему конец — пока он не прикончил человечество. В статье журнала Time специалист по искусственному интеллекту Элиезер Юдковски, который более двух десятилетий предупреждал об антиутопическом будущем, которое наступит, когда развитие прогресса достигнет сильного искусственного интеллекта (AGI) или технологической сингулярности, снова бьет тревогу.
Юдковски отметил, что, хотя он хвалит тех, кто подписал недавнее открытое письмо Института будущего жизни, в том числе генерального директора SpaceX Илона Маска и соучредителя Apple Стива Возняка, призывающих к шестимесячной паузе в разработке ИИ, он сам не подписал письмо, потому что считает, что этих мер не достаточно.
«Я воздержался от подписи, потому что считаю, что письмо преуменьшает серьезность ситуации и требует слишком мало для ее решения». Юдковски говорит, что его меньше беспокоит «конкурентный с людьми» ИИ, чем «то, что будет после». «Мы определенно не можем заранее рассчитать, что и когда произойдет, и в настоящее время кажется возможным, что исследователи перейдут критические границы, даже не заметив этого».
По мнению Юдковски, есть только одно решение для надвигающейся экзистенциальной угрозы со стороны «враждебного» сверхчеловеческого сильного ИИ: «просто отключить его» любыми необходимыми средствами. Следует «выключить все большие кластеры графических процессоров (большие компьютерные фермы, где совершенствуются самые мощные ИИ)», — написал Юдковски. «Отключить все большие тренировочные циклы. Установить потолок того, сколько вычислительной мощности кому-либо разрешено использовать для обучения системы ИИ, и снизить его в ближайшие годы, чтобы компенсировать более эффективные алгоритмы обучения. Никаких исключений для правительств и вооруженных сил».
Если кто-то, кто посвятил свою жизнь изучению опасностей антиутопического будущего ИИ, говорит, что человечество движется к тому, о чем он предупреждал, его мнение, возможно, стоит выслушать.
- Источник(и):
- Войдите на сайт для отправки комментариев