Глава DeepMind: «К рискам ИИ следует относиться так же серьезно, как к изменению климата»
Друзья, с момента основания проекта прошло уже 20 лет и мы рады сообщать вам, что сайт, наконец, переехали на новую платформу.
Какое-то время продолжим трудится на общее благо по адресу
На новой платформе мы уделили особое внимание удобству поиска материалов.
Особенно рекомендуем познакомиться с работой рубрикатора.
Спасибо, ждём вас на N-N-N.ru
Комментируя приближающийся саммит по ИИ-безопасности, который проводит правительство Великобритании, Демис Хассабис высказался вполне однозначно: надзор за этой технологией следует поручить организации, аналогичной Межправительственной группе экспертов по изменению климата (IPCC). Глава DeepMind и руководитель ИИ-подразделения Google убежден, что мир не может позволить себе медлить с реакцией на угрозу появления сверхчеловеческого интеллекта.
«Мы должны относиться к рискам ИИ так же серьезно, как к другим крупным глобальным проблемам, как к климатическому изменению, — сказал Хассабис. — Слишком долго международное сообщество координировало эффективные глобальные меры предотвращения, и теперь мы вынуждены мириться с последствиями. Мы не можем себе позволить так же долго медлить с ИИ».
Человечество должно безотлагательно приступить к нейтрализации рисков новых технологий, от биологического оружия до сверхчеловеческого интеллекта, считает Хассабис. Под его руководством команда DeepMind создавала не только алгоритмы для игры в го или компьютерные стратегии, но и для решения сложных биологических задач. Вполне ожидаемо, что он называет искусственный интеллект «одной из самых важных и полезных технологий, когда-либо изобретенных человеком».
Однако, он также считает, что ИИ необходим режим надзора, который можно организовать по примеру международного органа IPCC, пишет Guardian.
«Думаю, следует начать с чего-то вроде IPCC, где есть научное и исследовательское согласие с отчетами, и затем двигаться оттуда».
В идеале, он надеется, появится нечто вроде ЦЕРНа в области безопасности ИИ, а затем и некий эквивалент МАГАТЭ, которое надзирает за применением ядерной энергии и способствует его мирному использованию.
На прошлой неделе к аналогичным мерам призывали Эрик Шмидт, бывший глава Google, и Мустафа Сулейман, сооснователь DeepMind, которые призвали к созданию межправительственного совета экспертов по безопасности в области ИИ. Он должен действовать, по их мнению, под эгидой ООН.
Хассабис, как и ряд других экспертов в ИИ, считает, что эта технология способна открыть «невероятные возможности» перед медициной и наукой, но признает, что она несет и реальные экзистенциальные риски. В первую очередь, речь о появлении так называемого «универсального ИИ», который превзойдет человека по интеллекту и окажется неподвластен человеку.
Хассабис был одним из числа 1300 с лишним ученых, инженеров и предпринимателей, которые подписали открытое обращение, призывающие приостановить разработку мощных моделей из-за «значительных рисков для общества и человечества».
«Мы должны начать думать и изучать это сейчас. На самом деле, еще вчера, — сказал он. — Вот почему я подписал, как и многие другие, то письмо. Потому что мы хотели придать авторитетности той теме, которую имело бы смысл обсудить».
- Источник(и):
- Войдите на сайт для отправки комментариев