Перезагрузка искусственного интеллекта

Друзья, с момента основания проекта прошло уже 20 лет и мы рады сообщать вам, что сайт, наконец, переехали на новую платформу.

Какое-то время продолжим трудится на общее благо по адресу https://n-n-n.ru.
На новой платформе мы уделили особое внимание удобству поиска материалов.
Особенно рекомендуем познакомиться с работой рубрикатора.

Спасибо, ждём вас на N-N-N.ru

Автор: Konstantin Smygin. Ключевые идеи книги «Искусственный интеллект: перезагрузка» Гэри Маркуса и Эрнеста Дэвиса, ученых, которые специализируются на искусственном интеллекте. Прочитав обзор, вы узнаете о том, почему, несмотря на прогнозы технооптимистов и шумиху в СМИ, мы еще очень далеки от создания искусственного интеллекта, подобного человеческому.

С середины ХХ века звучат оптимистичные прогнозы о создании искусственного интеллекта (ИИ), подобного человеческому. Авторы книги, принимая во внимание реальное положение дел в этой сфере, считают этот оптимизм необоснованным.

В своей книге Маркус и Дэвис объясняют, почему ИИ не сможет стать подобным человеческому, если будет развиваться по текущему пути, и о том, в каком направлении нужно работать, чтобы создать действительно мыслящие машины.

Рассмотрим важные идеи книги.

В сфере развития искусственного интеллекта есть разрыв между тем, о чем сообщают СМИ, и тем, как обстоят дела на самом деле

По мнению авторов, оторванность от реальности характерна как для оптимистических прогнозов, так и для пессимистических. Большой вклад в это вносят СМИ, которые преподносят скромный прогресс как невероятный прорыв, привлекая внимание и пугая своих читателей. Но стоит только разобраться, какая именно информация скрывается за громким заголовком или пресс-релизом, как становится понятно, что дело обстоит совсем не так, как его пытаются представить.

Это не значит, что в сфере исследований ИИ нет реального прогресса. Прекрасные достижения получены в таких областях, как распознавание изображений и речи, управление и доставка грузов дронами. В основе успеха современных систем ИИ лежат два фактора: повышение вычислительной мощности аппаратного обеспечения и значительное увеличение библиотек данных.

Главная проблема ИИ — отсутствие гибкости, его крайняя узость, которая выражается в пригодности к решению очень специфических задач. Даже такой гигант, как Google, смог создать лишь крайне узкоспециализированную систему Google Duplex для совершения телефонных звонков.

Между оптимистичными прогнозами в отношении ИИ и реальностью существует огромный разрыв, который выражается в трех нерешенных проблемах.

Первая — легковерие, или фундаментальная ошибка оценки подлинности. Люди наделяют ИИ человеческими качествами и неверно оценивают его способности.

Вторая проблема — иллюзия быстрого прогресса. Быстрый прогресс в решении легких проблем не равен прогрессу в решении сложных проблем. То, что компьютер обыгрывает людей в интеллектуальные игры, не означает, что он умнее людей.

Третья проблема — переоценка надежности. Увлеченные успехами ИИ в одних областях, мы экстраполируем эти успехи на все. Мы считаем, что если беспилотное авто успешно ездит по магистрали, то это значит, что после доработки оно будет так же успешно показывать себя на городских улицах. Однако между двумя этими способностями лежит технологическая пропасть.

Современный подход, ориентированный на большие данные, не приводит к фундаментальному прорыву

Основная проблема в том, что доминирующий подход означает ориентацию на узкий ИИ и все большие наборы данных. В результате появляется много решений частных проблем, которые могут выглядеть впечатляюще, но они не способны привести к кардинальным прорывам. Современный ИИ, по выражению авторов, является слепым рабом данных. И чем больше мы полагаемся на такие системы, считая их интеллектуальными, тем к более опасным последствиям это может приводить.

На текущий момент основная опасность систем искусственного интеллекта состоит не в том, что они захватят власть и поработят нас, а в том, что они слишком ненадежны, хотя мы все чаще на них полагаемся.

Более того, по мнению авторов, вопрос о захвате власти машинами переоценен, так как у машин нет человеческой мотивации, целей и желаний.

Глубокое обучение представляет собой не интеллект, а лишь его фрагмент

Сегодня глубокое обучение — доминирующий метод разработки искусственного интеллекта. Это относительно новый подход, классический подход ориентировался на ручное кодирование знаний, которые должны были затем использовать машины. Классический подход еще используется в ряде областей, но он был практически полностью вытеснен машинным обучением, извлекающим закономерности из больших объемов данных и выдающим на их основе предсказания.

В основе глубокого обучения лежат иерархическое распознавание образов и само обучение. Иерархическое распознавание образов означает обработку данных в определенной последовательности, подобно нейронам зрительной системы человека.

Схожестью узлов искусственных сетей с нейронами человека объясняется название «нейронные сети».

Вторая основа глубокого обучения — это обучение методом проб и ошибок, когда система осваивает все больше корреляций и становится все более точной в своих предсказаниях.

Тем не менее авторы, признавая впечатляющие результаты работы нейронных сетей в ряде областей, указывают, что глубокое обучение — это не искусственный интеллект, а лишь часть более сложной задачи создания интеллектуальных машин.

Они выделяют три основные проблемы глубокого обучения.

Первая — для него требуются огромные массивы данных. Если в играх правила остаются неизменными и машины можно научить всем комбинациям ходов, то во множестве областей реальной жизни невозможно получить достаточное количество релевантных данных, чтобы обеспечить надежность системы глубокого обучения. Это является очевидным ограничением для ее работы.

Вторая проблема — непрозрачность решений нейронных сетей. Нейронные сети принимают решения на основе больших массивов данных, сама логика этих решений скрыта не только от обычных пользователей, но зачастую и от экспертов. Чем больше мы полагаемся на нейронные сети, тем важнее становится понимание принципов, по которым они принимают решения. Эти принципы не должны оставаться тайной, когда от них зависят жизни и благополучие людей.

Третья проблема глубокого обучения — оно нестабильно и непредсказуемо. Авторы дают множество примеров, когда нейронные сети интерпретируют очевидные для человека изображения неправильно, например, принимая черепаху за винтовку, а бейсбольный мяч с пеной за чашку капучино. Такие ошибки имеют критическое значение, если мы собираемся передавать системам функцию управления транспортными средствами или защиту людей от нападений.

Авторы заключают, что глубокое обучение, несмотря на название, в действительности не так уж и глубоко. Оно лишено глубины человеческого разума, а распознавание речи и изображений — не интеллект, а лишь его мельчайшие фрагменты.

Очень важная задача на пути создания искусственного интеллекта — научить машины читать и понимать прочитанное

На сегодняшний день уже предпринимаются попытки создать читающие машины, но задача слишком сложна. Так, создали проекта Google Talk To Books обещали использовать понимание естественного языка, чтобы обеспечить совершенно новый способ изучения книг. Предполагалось, что система будет отвечать на любые вопросы, находя ответы на них в книгах. Однако в действительности эта система не имела никакого представления о том, что читала. И если с ответами на буквальные вопросы она справлялась еще неплохо, то там, где ответы требовали подключения абстрактного мышления, результаты были ужасными.

Люди, в отличие от современных нейросетей, понимают, что ответы, которые можно найти в книгах, изложены в них не буквально. Читатель «Гарри Поттера», в отличие от системы ИИ, может найти в книгах все семь крестражей, даже с учетом того, что они не перечисляются в виде единого списка.

Подобно человеку, действительно разумная машина должна не только повторять то, что прочла, но и уметь синтезировать информацию.

На сегодняшний день работа нейросетей примитивна по сравнению с человеческим языком, заключают авторы. Из текста системы ИИ способны извлекать очень ограниченную информацию.

Пока что очень рано беспокоиться о нашествии роботов

Авторы с юмором пишут, что если вы боитесь, что роботы восстанут и атакуют людей, вам нужно лишь закрыться дома, покрасить ручку так, чтобы она была незаметна на фоне двери, прикрепить к входной двери большой плакат со школьным автобусом или причудливо раскрашенным тостером, положить на пол банановую кожуру и гвозди, для дополнительной безопасности можно поставить на пути робота стол. Все это — непреодолимые для роботов препятствия. Более того, в процессе прохождения препятствий у современного робота наверняка разрядится батарея.

Апокалиптические сценарии о нашествии роботов гораздо ближе к фантастике, чем к реальности.

Авторы выделяют пять основных моментов, которые нужно уметь оценивать любому разумному существу: где оно находится; что происходит вокруг него; что нужно делать прямо сейчас; как этого достичь; что нужно делать в течение более длительного срока для достижения имеющихся целей. Все эти вопросы должны рассматриваться постоянно в виде непрерывно повторяющихся циклов.

В сфере ИИ прогресс наблюдается только в одних частях цикла, другие остаются без решений.

Действительно разумные машины должны обладать здравым смыслом и быть гораздо более надежными, чем существующие сегодня системы

Авторы считают, что если наша цель — создать искусственный интеллект, подобный человеческому, то нам нужно перейти от систем, использующих как основной инструмент обучения статистические корреляции, к системам, постигающим мир через базовое понимание, подобное человеческому. Машины должны обладать тем, что мы называем здравым смыслом — базовыми знаниями, обладания которыми мы ожидаем от всех людей. Это знания о том, как обычно ведут себя люди и объекты в разных ситуациях, как они используют предметы, что можно делать с разными вещами, что происходит и не происходит в различных ситуациях.

Чтобы создать ИИ, подобный человеческому, нужно заложить в машины те принципы, которые позволяют учиться и постигать мир людям: способность к абстракции, композиционности, причинно-следственные представления, понимание того, что объекты существуют в течение какого-то времени. Нужно заложить в искусственные системы основы в виде понимания времени, пространства и причинности. Поэтому при создании ИИ компьютерные науки должны обогащаться знаниями из других дисциплин, в том числе когнитивных наук.

По мнению авторов, решить задачу здравого смысла и глубокого понимания крайне сложно, но только это поможет нам создать действительно разумный ИИ.


В своей книге Гэри Маркус и Эрнест Дэвис рассказывают широкой аудитории о том, что не так с современным подходом к искусственному интеллекту и почему он не приведет нас к созданию действительно разумных машин. Авторы критикуют глубокое обучение за его узость и призывают скептично относиться к громким заявлениям как о прорывах, так и об опасностях ИИ. Пока нам рано беспокоиться о том, что интеллектуальные машины захватят мир, гораздо больше нужно опасаться последствий слишком большого с нашей стороны доверия слишком глупым системам.

Пожалуйста, оцените статью:
Ваша оценка: None Средняя: 5 (1 vote)
Источник(и):

Хабр