Британская компания свободно раздает модель генеративного ИИ с открытым кодом

Друзья, с момента основания проекта прошло уже 20 лет и мы рады сообщать вам, что сайт, наконец, переехали на новую платформу.

Какое-то время продолжим трудится на общее благо по адресу https://n-n-n.ru.
На новой платформе мы уделили особое внимание удобству поиска материалов.
Особенно рекомендуем познакомиться с работой рубрикатора.

Спасибо, ждём вас на N-N-N.ru

Stability — британская компания, называющая себя конкурентом OpenAI, выпустила семейство языковых моделей с открытым кодом. Модель StableLM можно скачать с GitHub в двух конфигурациях, с 3 млрд и 7 млрд параметров. Еще два варианта — с 15 млрд и 65 млрд параметров — появятся позже. Как и GPT-4, языковая модель StableLM генерирует текст, предсказывая следующий фрагмент фразы. В итоге, она может писать программный код и компилировать тексты, которые выглядят достоверно и с трудом отличимы от произведений интеллектуального труда людей.

Компания выпустила модели по лицензии Creative Commons BY-SA-4.0, которая требует указания оригинального автора и распространения своего продута по той же лицензии, пишет Ars Technica.

«Языковые модели будут формировать скелет нашей цифровой экономики, и мы хотим, чтобы у каждого был голос в их проектировании, — заявила компания. — Модели вроде StableLM демонстрируют нашу приверженность прозрачной, доступной и полезной технологии ИИ».

Как и GPT-4, языковая модель StableLM генерирует текст, предсказывая следующий фрагмент фразы. В итоге, она может писать программный код и компилировать тексты, которые выглядят достоверно и с трудом отличимы от произведений интеллектуального труда людей. Как и ряд других крупных языковых моделей (LLaMa, Alpaca, Cerebras-GPT, Dolly 2.0), она стремится добиться такого же результата, что и GPT-3, но с меньшим числом параметров: 7 млрд против 175 млрд у GPT-3.

StableLM была обучена на «новом экспериментальном наборе данных», основанном на открытом дата-сете The Pile, но в три раза больше. По словам компании, ее «богатство» позволило добиться «поразительно высокой производительности» модели при меньшем размере параметров.

Пожалуйста, оцените статью:
Ваша оценка: None Средняя: 5 (2 votes)
Источник(и):

ХайТек+