Ян Лейке: OpenAI на самом деле не готовится к появлению сверхразумного ИИ
Друзья, с момента основания проекта прошло уже 20 лет и мы рады сообщать вам, что сайт, наконец, переехали на новую платформу.
Какое-то время продолжим трудится на общее благо по адресу
На новой платформе мы уделили особое внимание удобству поиска материалов.
Особенно рекомендуем познакомиться с работой рубрикатора.
Спасибо, ждём вас на N-N-N.ru
Ян Лейке, покинувший OpenAI вместе с Ильей Суцкевером, бывшим главным научным сотрудником, рассказал, что ему пришлось уйти из-за несогласия с руководством компании и постоянными помехами работе его команды. Он возглавлял в OpenAI разработку универсального ИИ и методы предотвращения выхода сверхразумного ИИ из-под контроля. По словам Лейке, вопросы безопасности давно перестали быть приоритетом руководства компании, несмотря на публичные заявления об обратном. Большая часть сотрудников его команды были уволены или уволились сами.
В июле прошлого года OpenAI объявила о создании новой команды разработчиков, которая должна была обеспечить условия появления сверхразумного искусственного интеллекта. Ее главами стали Илья Суцкевер и один из сооснователей компании, Ян Лейке. Команда получила 20% вычислительной мощности OpenAI, пишет Ars Technica. Теперь этой команды уже нет, а результаты ее деятельности были переданы другим проектам.
Недавнее увольнение Суцкевера было связано с провалившейся попыткой захвата власти в компании полгода назад. Уход же Лейке не вызвал такого внимания СМИ, пока он не опубликовал в Х сообщение, в котором объяснил свое решение несогласием с приоритетами компании и объемом выделенных его команде ресурсов.
«Я продолжительное время не был согласен с руководством OpenAI относительно главных приоритетов компании и, в конце концов, мы не достигли переломной точки, — написал Лейке. — За последние несколько месяцев моя команда плыла против ветра. Иногда нам не хватало вычислительных мощностей, и становилось все труднее выполнять эти важные исследования».
«За последние годы культура и процессы безопасности была отодвинута назад в угоду блестящим товарам», — написал Лейке.
Напомним, что год назад в блоге этой команды появилось сообщение: «На сегодня мы не знаем, как управлять или контролировать потенциальный сверхразумный ИИ и как помешать ему выйти из-под контроля».
Суцкевер неоднократно высказывался о необходимости соблюдения осторожности в разработке мощных ИИ, способности которых могут превосходить способности людей.
По мнению Лейке, начинать серьезно относиться к рискам универсального ИИ надо было давно.
«Мы должны поставить в приоритет максимально эффективную подготовку к их появлению, — написал он на днях. — Только тогда мы сможем гарантировать, что УИИ будет приносить пользу человечеству».
За последние полгода команда Лейка лишилась еще троих инженеров: Леопольд Ашенбреннер и Павел Измайлов были уволены за утечку конфиденциальной информации, а Уильям Сондерс ушел в феврале сам. Сменили работу и несколько сотрудников из других отделов. Руководство OpenAI не прокомментировало уход Лейка и других членов команды универсального ИИ, будущее этого проекта также неизвестно. Исследованиями рисков появления более мощных моделей ИИ займется теперь Джон Шульман, назначенный на место Суцкевера.
На днях президент OpenAI Грег Брокман опубликовал в своем аккаунте X первое общедоступное изображение, созданное с использованием новой модели компании GPT-4o. Иллюстрация выглядит реалистично, демонстрирует точность генерации текста и значительно превосходит по качеству DALL-E 3. Но пока функции создания изображений GPT-4o недоступны широкой публике.
- Источник(и):
- Войдите на сайт для отправки комментариев