Новый метод Microsoft позволяет ИИ-моделям учиться на ошибках, подобно людям

Друзья, с момента основания проекта прошло уже 20 лет и мы рады сообщать вам, что сайт, наконец, переехали на новую платформу.

Какое-то время продолжим трудится на общее благо по адресу https://n-n-n.ru.
На новой платформе мы уделили особое внимание удобству поиска материалов.
Особенно рекомендуем познакомиться с работой рубрикатора.

Спасибо, ждём вас на N-N-N.ru

Исследователи из Microsoft Research Asia, Пекинского университета и Сианьского университета Цзяотун разработали новую методику, которая заставляет большие языковые модели учиться на своих ошибках, подобно тому, как учатся люди.

Стратегия включала создание ошибочных путей решения задач, их исправление с помощью GPT-4, а затем обучение исходных моделей на скорректированных данных. Этот подход значительно улучшил способность ИИ-моделей решать математические задачи. Обучение на ошибках — важный фактор в разработке более эффективных систем искусственного интеллекта.

Ученые представили стратегию «Обучение на ошибках» (Learning from Mistakes, LeMa), которая учит ИИ исправлять собственные ошибки, что улучшает его способность к рассуждению. Исследователи черпали вдохновение в процессах человеческого обучения, когда ученик учится на своих промахах, чтобы улучшить результаты в будущем. Они применили эту концепцию к большим языковым моделям (LLM), используя пары данных с исправлением ошибок, сгенерированные GPT-4, для их точной настройки.

Сначала исследователи использовали такие модели, как LLaMA-2, которые генерировали ошибочные пути решения математических словесных задач. Затем GPT-4 выявил ошибки в рассуждениях, объяснил их и предоставил исправленные рассуждения. Исследователи использовали скорректированные данные для дальнейшего обучения исходных моделей.

В ходе эксперимента с использованием пяти базовых моделей LLM и двух задач на математическое мышление было обнаружено, что LeMa постоянно улучшает производительность в сравнении с простой донастройкой на данных Conceptual Task Graphs.

Специализированные модели LLM, которые были разработаны для решения математических задач, достигли высокой точности в решении задач. WizardMath и MetaMath показала точность в 85,4%на задачах GSM8K, а на задачах MATH — 27,1%. Эти результаты превосходят современные достижения open-source моделей. GSM8K и MATH — наборы задач, на которых тестируются ИИ-модели.

Исследования команды, включая код, данные и модели, теперь общедоступны на GitHub.

Появление LeMa показывает, что процессы машинного обучения можно сделать более похожими на человеческое обучение. Эта разработка может произвести революцию в секторах, зависящих от искусственного интеллекта, где исправление ошибок и непрерывное обучение имеют решающее значение. Например, в здравоохранении, финансах и автономных транспортных средствах.

Пожалуйста, оцените статью:
Ваша оценка: None Средняя: 5 (2 votes)
Источник(и):

ХайТек+