Эндрю Ын и Ян Лекунн против моратория на разработку продвинутого ИИ

Друзья, с момента основания проекта прошло уже 20 лет и мы рады сообщать вам, что сайт, наконец, переехали на новую платформу.

Какое-то время продолжим трудится на общее благо по адресу https://n-n-n.ru.
На новой платформе мы уделили особое внимание удобству поиска материалов.
Особенно рекомендуем познакомиться с работой рубрикатора.

Спасибо, ждём вас на N-N-N.ru

В конце прошлого месяца свыше тысячи специалистов в области ИИ опубликовали открытое письмо с призывом приостановить разработку генеративных моделей по крайней мере на шесть месяцев ввиду их потенциальной опасности для общества. Однако эту инициативу поддержали не все. Два эксперта в области нейросетей и машинного обучения, Ян Лекун и Эндрю Ын, считают паузу в исследованиях ужасной идеей и выступают за свободу научных изысканий при разумном регулировании продуктов, которые попадают в руки пользователей.

В ходе онлайн-дискуссии под категоричным заголовком «Почему шестимесячная пауза ИИ — плохая идея» Ян Лекун (лауреат премии Тьюринга, ведущий специалист Meta) и Эндрю Ын (бывший глава Google Brain и ведущий сотрудник Baidu, сооснователь Coursera) поделились своим видением ситуации. В самом начале беседы Ын заявил, что введение шестимесячного моратория на самом деле причинит значительный вред, если правительство решится на него.

Сфера искусственного интеллекта переживала в последнее десятилетие значительный взлет, пишет Venture Beat. Технология глубокого обучения породила генеративные ИИ-системы, способные генерировать правдоподобные тексты, изображения и звуки: ChatGPT, LLaMa, Midjourney, Stable Diffusion, Dall-E. Они открыли ряд новых, еще до конца не изученных возможностей, но также дали повод для беспокойства.

Некоторые из этих опасений касались настоящего или ближайшего будущего — прозрачность, предвзятость, социально-экономический вред. Другие были более отдаленными и туманными, вроде появления универсального искусственного интеллекта, который захочет уничтожить человечество или, по крайней мере, будет действовать исходя из собственных интересов.

«История показывает снова и снова, что благосостояние общества и людей развивается вместе с ростом интеллекта: навыки, грамотность, образование, творчество, культура, коммуникации и свободный обмен идеями. Интеллект, будь то человеческий или машинный, это топливо прогресса», — заявил Лекун.

По его мнению, мало кто из подписавших открытое письмо всерьез верит в то, что ИИ внезапно восстанет против людей. Более разумными он называет тех, кто считает, что у ИИ имеется некоторый потенциал навредить человечеству, и с этим надо что-то делать. С такими людьми он согласен. Но когда речь заходит о будущих, еще не созданных ИИ, то ошибкой было бы думать, что все они будут разработаны на основе тех же принципов, что и ChatGPT. Наверняка появятся новые методы и идеи, как сделать эти системы более управляемыми.

В целом, Ын и Лекун признали, что кое-какое регулирование ИИ необходимо, но не ценой исследований и инноваций. По их мнению, пауза в разработке нереалистична и контрпродуктивна. Вместо нее они призвали к сотрудничеству и прозрачности среди исследователей, правительств и корпораций, которые должны следить, чтобы их модели вели себя этично и ответственно.

«Моя первая реакция [на письмо] — призыв к отсрочке исследований и разработок напоминает новую волну обскурантизма, — сказал Лекун. — Зачем замедлять прогресс знаний и науки? Затем есть вопрос продуктов… Я всеми руками за регулирование продуктов, которые попадают к людям. Я не вижу смысла регулировать исследования и разработки. Я не думаю, что это приносит какую-то пользу, кроме сокращения знания, которое мы можем использовать для того, чтобы сделать технологии по-настоящему лучше, безопаснее».

Ын вторит своему коллеге: «Призыв к шестимесячному мораторию на прогресс в ИИ — ужасная идея. Я вижу множество новых приложений в образовании, здравоохранении, питании и т. д., которые помогут многим людям. Улучшение GPT-4 принесет пользу. Давайте уравновесим огромную ценность, которую создает ИИ, и реалистичные риски».

Пожалуйста, оцените статью:
Ваша оценка: None Средняя: 5 (1 vote)
Источник(и):

ХайТек+