Машинное обучение заставили работать в памяти компьютера

Друзья, с момента основания проекта прошло уже 20 лет и мы рады сообщать вам, что сайт, наконец, переехали на новую платформу.

Какое-то время продолжим трудится на общее благо по адресу https://n-n-n.ru.
На новой платформе мы уделили особое внимание удобству поиска материалов.
Особенно рекомендуем познакомиться с работой рубрикатора.

Спасибо, ждём вас на N-N-N.ru

IBM Research

Специалисты из IBM смогли запустить алгоритм машинного обучения прямо в запоминающем устройстве, а не процессоре. Для этого они использовали память на основе фазового перехода, которая может находиться не только в состоянии нуля и единицы, но и в промежуточных состояниях. Статья опубликована в журнале Nature Communications.

Классическая архитектура компьютеров, предложенная фон Нейманом в 1944 году и используемая в современной вычислительной технике, имеет заметный недостаток. Она подразумевает, что за обработку и хранение данных отвечают разные устройства, из-за чего процессор постоянно перемещает данные из памяти и обратно. Это снижает скорость и эффективность вычислений. Отчасти эту проблему решает кеширование, благодаря которому процессор может практически мгновенно получать часто используемые им данные.

Принцип работы ячейки памяти. Abu Sebastian et al. / Nature Communications, 2017

Исследователи из IBM решили использовать другой подход — переместить хотя бы часть вычислений из процессора в саму память. Для этого они создали память с изменением фазового состояния на основе легированного GeSbTe. Каждая ячейка памяти представляет собой небольшой объем этого материала, который помещен между двух электродов. В обычном состоянии материал имеет кристаллическое строение. Для изменения значения ячейки через материал пропускают пульсирующий ток, который плавит часть его объема. Если этот ток резко прекращается, материал быстро охлаждается и затвердевает, но не в кристаллическую фазу, а в аморфную. Поскольку его аморфная форма плохо проводит ток, регулируя ее объем относительно кристаллической можно записывать в ячейку не только бинарные значения (единица или ноль), но и промежуточные.

Обработка данных чипом на примере данных с метеостанций США. Abu Sebastian et al. / Nature Communications, 2017

Исследователи создали чип на основе такой памяти, состоящий из трех миллионов ячеек. Они решили проверить, можно ли с его помощью проводить обработку данных, такую как определение корреляции. К примеру, они взяли набор данных о погоде с 270 метеорологических станций в США, в котором каждый час помечался как дождливый или нет. За счет того, что данные изменяли проводимость ячеек, ученые смогли установить корреляцию между данными с разных метеостанций. Затем они проверили эти результаты с помощью метода k-средних. Выяснилось, что в 245 из 270 случаев метод дал такую же оценку. Исследователи отмечают, что такие чипы потенциально можно применять и в классических компьютерах с фон-неймановской архитектурой.

В 2014 году IBM показал другую значимую разработку, архитектура которой отличается от фон-неймановской — нейроморфный процессор TrueNorth, имитирующий работу настоящих нейронов. А в 2016 году исследователи компании смогли адаптировать для работы на таких чипах сверточные нейросети, которые известны своими практическими применениями, например, в области распознавания образов.

Автор: Григорий Копиев

Пожалуйста, оцените статью:
Ваша оценка: None Средняя: 4.8 (4 votes)
Источник(и):

nplus1.ru