Ваш гений — полный идиот, или Что есть ИИ и грозит ли он кому-либо

Друзья, с момента основания проекта прошло уже 20 лет и мы рады сообщать вам, что сайт, наконец, переехали на новую платформу.

Какое-то время продолжим трудится на общее благо по адресу https://n-n-n.ru.
На новой платформе мы уделили особое внимание удобству поиска материалов.
Особенно рекомендуем познакомиться с работой рубрикатора.

Спасибо, ждём вас на N-N-N.ru

Автор: Олег Артамонов. Дискуссиями о том, насколько прекрасен (опасен, полезен, подчеркните нужное) ChatGPT в частности и искусственный интеллект вообще, полон интернет — на эту тему высказались все, от «песочницы» Хабра до Генри Киссинджера. В принципе, такая громкость хайпа демотивирует говорить что-то своё — всё равно оно потонет в шуме.

Однако на этой неделе меня довольно неожиданно попросили прочитать лекцию для студентов-гуманитариев из РГСУ — «Искусственный интеллект нового поколения: изменят ли ChatGPT и Midjourney экономику, политику и социальную сферу», и было бы не меньшим грехом дать подготовленному материалу пропасть, не зафиксировав его письменно.

Тем более, что абсолютное большинство уже написанных статей не дают читателям того, что я люблю больше всего — некоей цельной картины происходящего. Это либо частное мнение, либо быстро уходящие в тензорную алгебру описания нейросетей, либо просто узкие демонстрации, что можно сделать (что конкретно сделал автор) в генеративной нейросети.

О чём же мы будем говорить?

Разумеется, о королях и капусте. А также о том, какой бывает искусственный интеллект, можно ли считать его разумным, в чём его главная проблема, спасут ли нас три закона робототехники, на какие профессии он повлияет, а какие — породит (и даже уже породил).

Подчеркну, что материал готовился для гуманитариев — социологов, политологов, et cetera — поэтому далее я буду всеми силами избегать погружения в математику, программирование или иные специализированные вещи.

Немного определений

В первую очередь, конечно, надо определиться с терминологией — тем более, что в области ИИ она не только до сих пор не всегда конкретна, но и силами журналистов превращается в полный винегрет, в котором путается всё и вся.

Итак, давайте условимся, что ИИ у нас может быть представлен в трёх возможных весовых категориях.

  • AI — Artificial Intelligence — узкоспециализированный ИИ, предназначенный для решения одной конкретной задачи. Примером AI являются, например, нейросети распознавания изображений, предназначенные для поиска на них конкретных объектов — скажем, котиков.

Этот вид AI является тривиальным и окружает нас уже много лет.

  • AGI — Artificial General Intelligence — ИИ общего назначения, способный эффективно решать любые поставленные перед ним интеллектуальные задачи. Так как «любые задач» — это очень широкое определение (можно поставить, например, задачу проектирования фотонного звездолёта для полёта на Альфу Центавра), то иногда используют более узкое определение «экономически значимые задачи с эффективностью не хуже человека». В любом случае, AGI не требует переобучения с нуля для переключения с одной задачи на другую.

Дошли ли мы до стадии AGI — вопрос дискуссионный, однако существуют достаточно много мнений, что GPT-4 уже демонстрирует признаки AGI. Одними из первых такое мнение высказали авторы известной работы «Sparks of Artificial General Intelligence: Early experiments with GPT-4https://arxiv.org/abs/2303.12712», после чего, разумеется, были немедленно перевраны журналистами, сообщившими миру, что GPT-4 обрёл разум.

  • SAI — Strong Artificial Intelligence — ИИ, обладающий сознанием, то есть полностью разумный во всех смыслах этого слова.

На данный момент мы не только не достигли этого уровня, но даже приблизительно не представляем, как его достичь. Впрочем, подробнее об этом — и о том, почему ни один из существующих ИИ нельзя считать разумным даже на уровне «зачатков разума» — поговорим ниже.

Откуда есть пошёл интеллект искусственный

ИИ не свалился на человечество осенью 2022-го года, в день открытия ChatGPT для широкой публики. Если — в широком смысле — мы понимаем ИИ как различные варианты нейросетей, то им уже многие десятилетия. Практические работы в этом направлении начались в 1940-х годах, в 1958-м был изобретён перцептрон — первый нейросетевой классификатор, с конца 1980-х нейросети начали применяться в научных расчётах, в 1990-х благодаря как быстрому росту вычислительных мощностей, так и развитию математического аппарата и архитектурных подходов начался быстрый рост этого направления.

iigen1.png

Простая нейросеть представляет собой набор блоков, осуществляющих преобразование входного сигнала X в выходной Y посредством некоей функции f(X), и соединённых друг с другом — как показано на рисунке выше синими стрелками. Важных моментов здесь два: во-первых, связи существуют не только линейные, но и перекрёстные, а также каждая связь имеет некоторые вес — который меняется при настройке, то есть обучении нейросети. Вес определяет коэффициент передачи сигнала, то есть, в итоге, пропорцию, в которой каждый блок (нейрон) смешивает приходящие ему на вход сигналы перед их обработкой. В целом — действительно крайне похоже на нейроны головного мозга и коммуникацию между ними.

Меняя веса связей, можно получить очень широкий диапазон вариантов отклика нейросети, то есть соответствия между выходным и входным сигналами — например, добиться, что нейросеть будет «реагировать» только на входной сигнал определённого вида.

При этом из-за очень большого числа связей — катастрофически растущего с ростом числа блоков — аналитически определить необходимые веса и просто расставить их с первой попытки практически невозможно. Поэтому нейросеть приходится обучать: подавать на её вход некоторый сигнал, сравнивать результат на выходе с желаемым нами, рассчитывать ошибку и подстраивать с целью её устранения веса связей. И если сигнал распространяется слева направо, то направление корректировки связей при подгонке результата — обратное, справа налево. Собственно, такая схема обучения и называется «backpropagation», обратное распространение. Придумана она была в 1960-х, активно применяться начала в 1980-х годах.

Обратите внимание на два момента:

  • очеловечевание связанной с нейросетями терминологии часто даёт неверное представление о сути явления. Так, обучение нейросети не имеет ничего общего с обучением человека — если человеку в ходе обучения мы даём новую информацию и объяснение её происхождения, позволяя ему самостоятельно понять и выстроить в логически непротиворечивую систему эту информацию, то в случае нейросетей процедура обучения является математическим алгоритмом настройки сложной системы связей;
  • чем развесистее нейросеть и чем сложнее структура обрабатываемой ей информации, тем меньше мы понимаем, что именно внутри себя рассчитывает нейросеть — мы лишь добиваемся, чтобы на данных для обучения сигнал на выходе соответствовал желаемому нами. Нейросети этого класса не обладают механизмами внимания, они не выделяют какую-то часть входных данных как важную и другую — как второстепенную, в результате чего легко может оказаться, что они, выдавая желаемый нами ответ, классифицируют на самом деле ту часть входных данных, которую мы, люди, априорно считаем несущественной. Например, есть история про классификацию нейросетью рентгеновских снимков: всё было очень хорошо, пока не оказалось, что ключевым параметром для нейросети стал сам формат снимка: те из них, что приходили из больниц, нейросеть считала снимками больных людей, а те, что приходили из данных плановых обследований — снимками здоровых людей. Ну и в общем действительно в большинстве случаев угадывала. Экспериментаторы же вообще изначально не придали никакого значения тому, что рентгеновские снимки из разных источников отличаются форматом — просто в силу того, что там стоят разные рентгеновские аппараты.

Наконец, подобные нейронные сети являются лишь классификаторами, но не генераторами — они не могут что-либо создать. Они лишь определяют, что входящая информация обладает (или не обладает) определёнными свойствами — например, что на картинке изображён котик.

iigen2.png

Ну или собачка. Или черничный маффин. Или жареная курица.

iigen3.png

К нейросетям, способными эффективно что-то нужное (например, картинки с котиками) создавать, человечество подошло в 2014 году, создав так называемые GAN, Generative Adversarial Networks, генеративно-состязательные сети.

Если быть точным, то это уже не одна нейросеть, а конструкция, состоящая из двух сетей.

Первая из них является генератором: получая на вход белый шум, она накладывает на него некоторую функцию, преобразуя шум в… во что-то. Скорее всего, в другой шум, уже не белый. Но иногда — в котиков.

Как делают кораблики в бутылке? В бутылку засыпают щепки, бумагу и клей. Потом долго трясут. Чаще всего получается мусор. Но иногда — кораблики.

С одной стороны, нейросети-генератору всё равно, что получается у него на выходе, волнует его это не больше, чем настольный калькулятор в бухгалтерии беспокоится о том, в убытках вы по итогам квартала или в прибылях.

С другой стороны, очевидно, что вариантов преобразования белого шума в котика — колоссальное число, а не в котика — ещё в миллионы раз больше. Обучать такую нейросеть вручную — не хватит времени жизни не то что человека, но и всей цивилизации. При таком подходе у котиков не было бы шансов.

Спасает вторая нейросеть — дискриминатор. Та самая классифицирующая нейросеть из первого примера, которую обучили на миллионе настоящих картинок котиков из интернета: так, чтобы она выдавала «ок!», если ей показали настоящего котика, и «не ок!», если ненастоящего.

Ну и связывают эти нейросети вместе. Генератор подаёт котиков в дискриминатор, а дискриминатор выдаёт генератору ответ — настоящий котик или нет. Остаётся только настроить генератор так, чтобы он стремился обмануть дискриминатор, а дискриминатор — чтобы он старался не быть обманутым.

Дальнейшее сильно зависит от желаемого вами качества котиков, но в принципе на мощном компьютере через время от десятков часов до десятков дней вы получите результат: система придёт в состояние, когда генератор будет создавать крайне слабо отличимых от настоящих котиков. Без вашего прямого участия в его обучении.

При этом необходимо понимать, что GAN по-прежнему не понимает, что есть котик. Она просто методом тыка подобрала такой набор преобразований над входным белым шумом, что результатом применения этого набора является стабильно получаемое от дискриминатора «ок!».

Из наиболее нашумевших на публике применений GAN можно назвать, например, генераторы лиц несуществующих людей, такие как «This Person Doesn't Existhttps://this-person-does-not-exist.com/en».

GAN, разумеется, являются примером узкоспециализированного ИИ — они тренируются на решение одной конкретной задачи. Если вы хотите не котиков, а черничные маффины — вам придётся тренировать нейросеть заново, с нуля.

Кроме того, GAN не очень хорошо справляются с другой задачей — генерацией текста. Хотя, казалось бы, текст выглядит проще котика, сгенерировать осмысленный текст крайне сложно. Да, GAN могут выдавать и текст — но практические применения ограничиваются созданием грамматически корректных, но не сильно осмысленных наполнителей пустого места для тех, кто от dolorem ipsum уже и правда испытывает боль.

iigen4.png

Наконец, вершина нейросетевой эволюции — ChatGPT как конкретный продукт, и большие языковые модели (LLM) как в целом класс таких систем.

Подробнее
Пожалуйста, оцените статью:
Ваша оценка: None Средняя: 5 (1 vote)
Источник(и):

Хабр