«Новые типы нейронных сетей рано или поздно обретут здравый смысл»
Друзья, с момента основания проекта прошло уже 20 лет и мы рады сообщать вам, что сайт, наконец, переехали на новую платформу.
Какое-то время продолжим трудится на общее благо по адресу
На новой платформе мы уделили особое внимание удобству поиска материалов.
Особенно рекомендуем познакомиться с работой рубрикатора.
Спасибо, ждём вас на N-N-N.ru
Глубокие нейросети преодолеют свои недостатки без помощи символического искусственного интеллекта, уверены пионеры этой технологии, опубликовавшие статью в июльском номере журнала Communications of the ACM. В ней Иошуа Бенджио, Джеффри Хинтон и Ян Лекун, лауреаты премии Тьюринга 2018 года, заявили о своей уверенности в том, что со временем глубокие нейросети приобретут все аспекты человеческого интеллекта, включая манипуляцию символами, способность к рассуждению и здравый смысл.
Статья «Глубокое обучение для ИИ» (Deep Learning for AI) описывает будущее, в котором модели глубокого обучения могут учиться почти или совсем без помощи людей, гибко приспосабливаться к окружающей среде и решать множество когнитивных задач.
Глубокое обучение часто сравнивают с мозгом человека или животного. Однако опыт прошлых лет показал, что искусственным нейронным сетям, главному компоненту моделей глубокого обучения, недостает эффективности, гибкости и универсальности, которые есть у биологических нейросетей.
Авторы статьи признают эту проблему, пишет Venture Beat.
«Обучение с учителем, несмотря на успешность в выполнении широкого спектра задач, обычно требует большого объема данных, размеченных человеком. Аналогичным образом, когда обучение с подкреплением основывается только на вознаграждении, оно требует очень большого количества взаимодействий», — говорится в исследовании.
Также Бенджио, Хинтон и Лекун признают, что нынешнее глубокое обучение решает ограниченный спектр задач. Модели хорошо справляются с узкоспециализированными задачами, но даже незначительный выход за их рамки приводит к сбою системы. Такая хрупкость возникает по большей части из-за того, что модели основаны на допущении, что данные реального мира имеют то же распределение, что и обучающие данные. Кроме того, не принимается в расчет ситуация, когда наблюдения могут влиять друг на друга.
Такие допущения авторы считают нереалистичными. Окружающая среда постоянно меняется под действием различных факторов, многие из которых невозможно представить без каузальных моделей. ИИ должен постоянно наблюдать и учиться у среды и других ИИ, а также адаптироваться к изменениям.
В отличие от других ученых, Бенджио, Хинтон и Лекун не считают правильным смешивать нейронные сети и классические, символические системы в попытке преодолеть разрыв между ИИ и человеческим интеллектом, способным к генерализации. Такой подход называется гибридным, но авторы не согласны с ним. Они считают, что должны появиться более продвинутые архитектуры нейронных сетей, которые со временем приобретут все аспекты человеческого интеллекта, включая манипуляцию символами, способность к рассуждению и здравый смысл.
«Впереди еще долгий путь, который мы должны пройти, чтобы понять, как сделать нейронные сети по-настоящему эффективными, — сказал Хинтон. — И мы ждем появления радикально новых идей».
Как и год назад, Хинтон уверен, что глубокое обучение способно выполнить любую задачу, но для этого потребуется несколько концептуальных прорывов. В интервью 2020 года он рассказал, что нужно для того, чтобы ИИ смог работать как мозг человека, и как, по его мнению, действует сознание человека.
- Источник(и):
- Войдите на сайт для отправки комментариев