Чтобы научить компьютеры математике учёные объединяют разные ИИ

Друзья, с момента основания проекта прошло уже 20 лет и мы рады сообщать вам, что сайт, наконец, переехали на новую платформу.

Какое-то время продолжим трудится на общее благо по адресу https://n-n-n.ru.
На новой платформе мы уделили особое внимание удобству поиска материалов.
Особенно рекомендуем познакомиться с работой рубрикатора.

Спасибо, ждём вас на N-N-N.ru

Блог компании FirstVDS. Автор оригинала: Kevin Hartnett. Большие языковые модели по-прежнему борются с проблемами и базовыми задачами рассуждения. Две новые статьи, в которых машинное обучение применяется к математике, дают представление о том, как это может измениться.

За последние несколько месяцев мир узнал две вещи о больших языковых моделях (LLM) — вычислительных механизмах, лежащих в основе таких программ, как ChatGPT и Dall·E. Во-первых, эти модели обладают интеллектом и творчеством человека. Они предлагают подробные и ясные ответы на письменные вопросы или создают привлекательные изображения всего из нескольких слов текста.

Во-вторых, они ненадежны. Иногда они делают нелогичные заявления или уверенно выдают ложь за факт.

«Они будут говорить о единорогах, но потом забудут, что у них один рог, или расскажут вам историю, а затем изменят детали», – сказал Джейсон Рут из IBM Research.

Это больше, чем просто ошибки — они демонстрируют, что LLM изо всех сил пытаются распознать свои ошибки, что ограничивает их производительность. Эта проблема не присуща системам искусственного интеллекта. Модели машинного обучения, основанные на методе, называемом обучением с подкреплением, позволяют компьютерам учиться на своих ошибках, чтобы стать вундеркиндами в таких играх, как шахматы или го. Хотя эти модели, как правило, более ограничены в своих возможностях, они представляют собой своего рода обучение, которое LLM еще не освоили.

«Мы не хотим создавать языковую модель, которая просто говорит как человек, — сказал Юхуай (Тони) Ву из Google AI. — Мы хотим, чтобы она поняла, о чем она говорит».

Ву является соавтором двух недавних статей, в которых предлагается способ достижения этой цели. На первый взгляд, речь идет об очень конкретном приложении: обучении систем ИИ выполнять математические операции. В первой статье описывается обучение LLM переводу обычных математических выражений в формальный код, который компьютер может запускать и проверять. Во второй обучали LLM не только понимать математические задачи на естественном языке, но и решать их, используя систему под названием Minerva.

В совокупности статьи предлагают форму будущего дизайна ИИ, в котором LLM могут учиться рассуждать с помощью математического мышления.

«У вас есть такие вещи, как глубокое обучение, обучение с подкреплением, AlphaGo, а теперь и языковые модели, – сказал Сиддхартха Гадгил, математик из Индийского института науки в Бангалоре, работающий с математическими системами ИИ. – Технология развивается во многих разных направлениях, и все они могут работать вместе».

Подробнее
Пожалуйста, оцените статью:
Ваша оценка: None Средняя: 5 (1 vote)
Источник(и):

Хабр