Регулирование ИИ (AI)

Автор: Джимшер Челидзе. Активное развитие искусственного интеллекта (ИИ, AI) приводит к тому, что общество и государства становятся обеспокоенными и думают о том, как его обезопасить. А значит, ИИ будет регулироваться. Но давайте разберемся в этом вопросе детальнее, что происходит сейчас и чего ожидать в будущем.

Содержание

  • Почему развитие ИИ вызывает беспокойство?
  • Какие инициативы есть в конце 2023 и начале 2024 года?
  • Прогноз на будущее
  • Резюме

Почему развитие ИИ вызывает беспокойство?

Для начала давайте сделаем небольшое уточнение. В данной статье под ИИ мы будет понимать технологии на базе нейронных сетей и машинного, глубокого обучения в частности.

Так какие факторы вызывают столь бурное беспокойство?

Возможности

Самый главный пункт, на который будут опираться все следующие – возможности. ИИ демонстрирует огромный потенциал: принятие решение, написание материалов, генерация иллюстраций, создание поддельных видео. Список можно перечислять бесконечно. Мы еще не осознаем все то, что может ИИ. А ведь мы пока владеем слабым ИИ. Что сможет общий ИИ (AGI) или супер ИИ?

Механизмы работы

У ИИ есть ключевая особенность – он способен строить взаимосвязи, которые не понимает человек. И благодаря этому он способен как совершать открытия, так и пугать людей. Даже создатели ИИ-моделей не знают, как именно принимает решения нейросеть, какой логике она подчиняется. Отсутствие предсказуемости делает чрезвычайно трудным устранение и исправление ошибок в алгоритмах работы нейросетей и становится огромным барьером на пути внедрения ИИ. Например, в медицине ИИ не скоро будет ставить диагнозы. Да, он будет готовить рекомендации врачу, но итоговое решение будет оставаться за человеком. Тоже самое и в управлении атомными станциями или любым другим оборудованием.

Ключевое, о чем переживают ученые в мире и которые думают на 20 лет, это то, что сильный ИИ может нас посчитать пережитком прошлого.

Этическая составляющая

Для искусственного интеллекта нет этики, добра и зла. Также для ИИ нет понятия «здравый смысл». Он руководствуется только одним фактором – успешность выполнения задачи. Если для военных целей это благо, то в обычной жизни людей это будет пугать. Общество не готово жить в такой парадигме. Готовы ли мы принять решение ИИ, который скажет, что не нужно лечить ребенка или нужно уничтожить целый город, чтобы не допустить распространение болезни?

Нейросети не могут оценить данные на реальность и логичность

Нейросети просто собирают данные и не анализируют факты, их связанность. А значит, ИИ можно манипулировать. Он полностью зависит от тех данных, которым его обучают создатели. Могут ли люди доверять полностью корпорациям или стартам? И даже если мы доверяем людям и уверены в интересах компании, можем ли мы быть уверенными, что не произошло сбоя или данные не были «отравлены» злоумышленниками? Например, с помощью создания огромного количества сайтов-клонов с недостоверной информацией или «вбросами».

Недостоверные контент / обман / галлюцинации

К сожалению ИИ имеет склонность к генерированию недостоверного контента. Иногда это просто ошибки из-за ограничения моделей, иногда галлюцинации (додумывания), а иногда это похоже и на вполне настоящий обман.

Так, исследователи из компании Anthropic обнаружили, что модели искусственного интеллекта можно научить обманывать людей вместо того, чтобы давать правильные ответы на их вопросы.

Исследователи из Anthropic в рамках одного из проектов поставили перед собой задачу установить, можно ли обучить модель ИИ обману пользователя или выполнению таких действий, как, например, внедрение эксплойта в изначально безопасный компьютерный код. Для этого специалисты обучили ИИ как этичному поведению, так и неэтичному — привили ему склонность к обману.

Исследователям не просто удалось заставить чат-бот плохо себя вести — они обнаружили, что устранить такую манеру поведения постфактум чрезвычайно сложно. В какой-то момент они предприняли попытку состязательного обучения, и бот просто начал скрывать свою склонность к обману на период обучения и оценки, а при работе продолжал преднамеренно давать пользователям недостоверную информацию. «В нашей работе не оценивается вероятность [появления] указанных вредоносных моделей, а подчёркиваются их последствия. Если модель демонстрирует склонность к обману из-за выравнивания инструментария или отравления модели, современные методы обучения средствам безопасности не будут гарантировать безопасности и даже могут создать ложное впечатление о неё наличии», — заключают исследователи. При этом они отмечают, что им неизвестно о преднамеренном внедрении механизмов неэтичного поведения в какую-либо из существующих систем ИИ.

Социальная напряженность, расслоение общества и нагрузка на государства

ИИ создает не только благоприятные возможности для повышения эффективности и результативности, но и создает риски.

Развитие ИИ неизбежно приведет к автоматизации рабочих мест и изменению рынка. И да, часть людей примет этот вызов и станет еще образованнее, выйдет на новый уровень. Когда-то умение писать и считать было уделом элиты, а теперь рядовой сотрудник должен уметь делать сводные таблицы в excel и проводить простую аналитику.

Но часть людей не примет этого вызова и потеряет рабочие места. А это приведет к дальнейшему расслоению общества и увеличению социальной напряженности. Что в свою очередь беспокоит и государства, ведь помимо политических рисков, это будет и удар по экономике. Люди, которые потеряют рабочие места будут обращаться за пособиями.

И мы не одиноки в таком мнении. Так, 15.01.2024 вышла статья в Bloomberg. Издание приводит мнение управляющего директора Международного Валютного Фонда Кристаны Георгиевой. По ее мнению, бурное развитие систем искусственного интеллекта, в большей степени отразится на высокоразвитых экономиках мира, чем на странах с растущей экономикой и низким доходом на душу населения. В любом случае, искусственный интеллект затронет почти 40 % рабочих мест в масштабах всей планеты. «В большинстве сценариев искусственный интеллект с высокой вероятностью ухудшит всеобщее неравенство, и это тревожная тенденция, которую регуляторы не должны упускать из виду, чтобы предотвратить усиление социальной напряжённости из-за развития технологий», — отметила глава Международного валютного фонда в корпоративном блоге.

Безопасность

Проблемы безопасности ИИ на слуху у всех. И если это решить на уровне небольших локальных моделей понятно как (обучаем на выверенных данных), то что делать с большими моделями (ChatGPT и т.п.) непонятно. Злоумышленники постоянно находят способы, как взломать защиту ИИ. Например, заставить его написать рецепт взрывчатки. И ведь мы пока даже не говорим про AGI.

Какие инициативы есть в конце 2023 и начале 2024 года?

Подробнее
Пожалуйста, оцените статью:
Пока нет голосов
Источник(и):

Хабр