Новый метод Microsoft позволяет ИИ-моделям учиться на ошибках, подобно людям
Друзья, с момента основания проекта прошло уже 20 лет и мы рады сообщать вам, что сайт, наконец, переехали на новую платформу.
Какое-то время продолжим трудится на общее благо по адресу
На новой платформе мы уделили особое внимание удобству поиска материалов.
Особенно рекомендуем познакомиться с работой рубрикатора.
Спасибо, ждём вас на N-N-N.ru
Исследователи из Microsoft Research Asia, Пекинского университета и Сианьского университета Цзяотун разработали новую методику, которая заставляет большие языковые модели учиться на своих ошибках, подобно тому, как учатся люди.
Стратегия включала создание ошибочных путей решения задач, их исправление с помощью GPT-4, а затем обучение исходных моделей на скорректированных данных. Этот подход значительно улучшил способность ИИ-моделей решать математические задачи. Обучение на ошибках — важный фактор в разработке более эффективных систем искусственного интеллекта.
Ученые представили стратегию «Обучение на ошибках» (Learning from Mistakes, LeMa), которая учит ИИ исправлять собственные ошибки, что улучшает его способность к рассуждению. Исследователи черпали вдохновение в процессах человеческого обучения, когда ученик учится на своих промахах, чтобы улучшить результаты в будущем. Они применили эту концепцию к большим языковым моделям (LLM), используя пары данных с исправлением ошибок, сгенерированные GPT-4, для их точной настройки.
Сначала исследователи использовали такие модели, как LLaMA-2, которые генерировали ошибочные пути решения математических словесных задач. Затем GPT-4 выявил ошибки в рассуждениях, объяснил их и предоставил исправленные рассуждения. Исследователи использовали скорректированные данные для дальнейшего обучения исходных моделей.
В ходе эксперимента с использованием пяти базовых моделей LLM и двух задач на математическое мышление было обнаружено, что LeMa постоянно улучшает производительность в сравнении с простой донастройкой на данных Conceptual Task Graphs.
Специализированные модели LLM, которые были разработаны для решения математических задач, достигли высокой точности в решении задач. WizardMath и MetaMath показала точность в 85,4%на задачах GSM8K, а на задачах MATH — 27,1%. Эти результаты превосходят современные достижения open-source моделей. GSM8K и MATH — наборы задач, на которых тестируются ИИ-модели.
Исследования команды, включая код, данные и модели, теперь общедоступны на GitHub.
Появление LeMa показывает, что процессы машинного обучения можно сделать более похожими на человеческое обучение. Эта разработка может произвести революцию в секторах, зависящих от искусственного интеллекта, где исправление ошибок и непрерывное обучение имеют решающее значение. Например, в здравоохранении, финансах и автономных транспортных средствах.
- Источник(и):
- Войдите на сайт для отправки комментариев