Сооснователь OpenAI: «Генеративные модели в какой-то момент станут опасны»
Друзья, с момента основания проекта прошло уже 20 лет и мы рады сообщать вам, что сайт, наконец, переехали на новую платформу.
Какое-то время продолжим трудится на общее благо по адресу
На новой платформе мы уделили особое внимание удобству поиска материалов.
Особенно рекомендуем познакомиться с работой рубрикатора.
Спасибо, ждём вас на N-N-N.ru
Появление GPT-4 разочаровало многих экспертов, и не своими техническими усовершенствованиями, а отсутствием информации о внутреннем устройстве генеративной модели. Вопреки своим принципам, OpenAI выпустила не открытую языковую модель, а «черный ящик», скрыв практически все интересные для ИИ-сообщества технические подробности. Руководство компании объясняет это конкуренцией и желанием защитить людей от появления неконтролируемого и опасного универсального искусственного интеллекта.
При этом сооснователь компании признался, что считает GPT-4 способной вырасти до универсального ИИ и даже назвал сроки — опасность инструмента станет всем очевидна уже через пару лет.
OpenAI представила пользователям большое количество результатов испытаний GPT-4 и показала интригующие примеры возможностей GPT-4, но дала минимум информации о данных, использовавшихся для обучения системы, о расходах электроэнергии и о специфическом оборудовании или методах создания языковой модели. Многие в ИИ-сообществе выступили с критикой такого решения, отмечая, что оно идет вразрез с фундаментальной этикой компании и принципами, на которых она была некогда основана. С практической точки зрения такая закрытость усложняет разработку мер противодействия угрозам обществу, которые могут представлять системы вроде GPT-4.
В интервью Verge Илия Суцкевер, сооснователь и главный ученый OpenAI заявил, что причины такого решения руководства компании «очевидны»: все дело в конкуренции.
«GPT-4 непросто разрабатывать, — пояснил он. — Ее создание на протяжении очень долгого времени отнимало и по-прежнему отнимает почти все силы OpenAI. И существует много компаний, которые хотят того же, так что с точки зрения конкуренции это можно воспринимать как зрелось индустрии».
По словам Суцкевера, вопрос безопасности GPT-4 не такой существенный, как проблема конкуренции. Но со временем это изменится.
«Эти модели очень способные, и становятся все более способными. В какой-то момент будет очень просто, при желании, причинить большой вред с помощью этих моделей. А поскольку их возможности растут, имеет смысл не разглашать их», — сказал он.
Такой закрытый подход в корне отличается от принципов, на которых OpenAI была основана в 2015 году небольшой группой энтузиастов. Помимо Суцкевера в нее входил нынешний гендиректор Сэм Альтман и Илон Маск, покинувший совет директоров в 2018-м из-за разногласий. Поначалу это была некоммерческая организация, но позже стала «ограниченно коммерческой», чтобы удобнее было привлекать миллиардные инвестиции, прежде всего — от Microsoft.
На вопрос, почему OpenAI изменила свою позицию и перестала раскрывать технические подробности своих моделей, Суцкевер признался: «Мы ошибались. Честно говоря, мы ошибались. Если вы считаете, как и мы, что на каком-то этапе ИИ — универсальный ИИ — станет крайне, невообразимо могучим, то попросту не разумно раскрывать подробности. Это плохая идея… Я полностью уверен, что через пару лет всем станет совершенно очевидно, что открывать источники ИИ не умно».
Еще одна причина, по которой компания не раскрывает детали своей технологии, может заключаться в юридическом аспекте. Языковые модели обучаются на основе огромного количества текстов, собранных по всему интернету. Среди этих текстов, вполне вероятно, попадаются защищенные авторским правом.
- Источник(и):
- Войдите на сайт для отправки комментариев