«Злой? Плохой? Хороший!»: что такое этика искусственного интеллекта и как она помогает сделать алгоритмы полезными и безопасными для людей

Друзья, с момента основания проекта прошло уже 20 лет и мы рады сообщать вам, что сайт, наконец, переехали на новую платформу.

Какое-то время продолжим трудится на общее благо по адресу https://n-n-n.ru.
На новой платформе мы уделили особое внимание удобству поиска материалов.
Особенно рекомендуем познакомиться с работой рубрикатора.

Спасибо, ждём вас на N-N-N.ru

Автор: Даниил Кузнецов. Разве у ИИ вообще может быть этика? Он же — неживой! Конечно, сам по себе ИИ не может различать добро и зло. Задача человечества — не сделать ИИ похожим на человека, а научить его действовать исходя из принципов справедливости и морали, а вовсе не так, как обычно поступает большинство людей. Naked Science отвечает на популярные вопросы о том, кто и зачем формулирует этические принципы для ИИ, и где и как их применяют.

Этика — это же что-то из философии? О чём вообще речь?

Действительно, первоначально этика — это философская дисциплина о нормах поведения по отношению к другим людям, обществу, Богу и т.д., а впоследствии и о внутренних моральных категориях. Известна, например, такая этическая максима философа Иммануила Канта — категорический императив — «поступай так, чтобы ты всегда относился к человечеству и в своём лице, и в лице всякого другого как к цели, и никогда — как к средству».

Но этику можно понимать и гораздо проще — как систему моральных принципов, позволяющих каждому человеку различать добро и зло; понимать, что такое хорошо, а что такое плохо. Этика регулирует общежитие людей, сообществ, государств. Золотое правило этики — «не делай другим того, чего не желаешь себе».

И какое отношение этика имеет к технологиям?

Долгое время люди делили мир на животных — действующих исключительно «по природе», на основании инстинктов, и разумных людей, чьи поступки рациональны и опираются на этические принципы. Поэтому если кто-то их нарушает, то это либо плохой человек, недостойный жить в обществе, либо сумасшедший. Однако со временем люди стали делегировать часть своих действий машинам. Теперь машины совершали определенные деяния, но не располагая при этом ни мышлением, ни моральными директивами.

В наше время появился особый класс технологий, которые решают отдельные интеллектуальные задачи, ранее подвластные только человеку. Это так называемый слабый, узкий или прикладной искусственный интеллект. Он может играть в шахматы или водить машину. И если в первом случае ИИ вряд ли оказывает сильное воздействие на людей и общество, то во втором ему приходится решать множество этических дилемм.

Часть из них обобщены в рамках мысленного эксперимента «проблема вагонетки» — разнообразных ситуаций выбора, когда необходимо минимизировать жертвы. Так, алгоритм беспилотного автомобиля должен в критических условиях решить, как ему поступить — уехать в кювет и подвергнуть риску пассажира, либо двигаться дальше, создавая опасность для нарушителей дорожного движения.

ii1.pngАвтопилот Tesla распознает объекты на дороге, а алгоритмы решают как действовать в конкретной ситуации / ©Tesla

Большинство моральных дилемм и принципов можно переформулировать в подобного рода задачи, а затем проверить их эмпирически или экспериментально. Это называется операционализацией этики.

Правильно ли я понимаю, что мы должны научить ИИ действовать как человек?

Увы, скорее, наоборот. Давайте в двух словах разберемся, из чего состоит любая система искусственного интеллекта. Во-первых, чтобы научиться решать какую-либо задачу, например, опознавать и классифицировать лица людей, ИИ требуются данные. Очень, очень много данных. Поэтому их ещё называют «большими данными».

Те же изображения лиц людей часто собирают с помощью ботов в интернете. Кроме самих картинок нужны и описания для них, которые обычно берутся из контекста размещения изображения. В итоге модель, при решении задачи классификации, чаще относит женщин к категории «домашний работник», нежели, например, «врач», следуя сексистским стереотипам, укорененным в общественных устоях некоторых стран. Так проявляется предвзятость на уровне данных, наследуемая ИИ напрямую от людей.

Следующий уровень — построение алгоритма и его обучение. Здесь тоже могут возникнуть предубеждения или искажения. Проблема в том, что обычно работа любого алгоритма для исследователя или инженера — это «чёрный ящик». Нам сложно объяснить, как модель приняла то или иное решение, сделала прогноз. Преодолеть проблему на данном уровне можно с помощью подхода «объяснимого искусственного интеллекта» (eXplainable Artificial Intelligence, XAI).

Наконец, есть предвзятость и на уровне интерпретации результата работы алгоритма. Здесь как раз важна роль людей. Предположим, мы обучаем модель на данных одной популяции, получаем необходимые прогнозы, но затем применяем её к совершенно другой популяции. В некотором смысле реализуя таким образом трансфер (перенос) машинного обучения. Но теперь полученный результат может значительно отличаться, это нужно учитывать и контролировать, что происходит, увы, не всегда.

Последний момент — применение ИИ в реальной жизни и отслеживание результатов этого. Если алгоритмы ущемляют права людей, то их необходимо скорректировать или прервать работу системы. Так, в одном из муниципалитетов Южной Голландии местные активисты добились прекращения использования алгоритма Totta Data Lab для профилирования получателей социального обеспечения, доказав искажения в его работе . Так что корректнее будет сказать, что мы должны научить ИИ действовать исходя из принципов справедливости и морали, а не так, как обычно поступает большинство людей.

Для чего ещё нужна этика искусственного интеллекта?

В первую очередь для эффективного развития технологий ИИ. Любое изобретение, выйдя за пределы гаража создателя или лаборатории учёного, обычно тут же вызывает в обществе опасения и страхи. Возьмём автомобили. На заре автомобилестроения самоходные, медленные и громыхающие паромобили пугали на улицах лошадей, возчиков и пешеходов.

В двух странах — Великобритании и Германии — к проблеме подошли с радикально разным подходом. В Туманном Альбионе в 1865 году ввели «Закон красного флага» — перед каждым паромобилем («безлошадной каретой») должен был идти человек с поднятым красным флагом днём или зажженным красным фонарём ночью и тем самым предупреждать о появлении нового «технологического монстра». А водителей должно было быть не меньше двух. Подобные ограничения привели к падению скорости паромобилей, неудобству их использования и полностью нивелировали и так незначительные на тот момент преимущества нового транспорта перед конным.

ii3.png«Закон красного флага» — перед каждым паромобилем («безлошадной каретой») должен был идти человек с поднятым красным флагом / ©Wikimedia

В Германии же поступили ровно наоборот, дав паромобилям свободно перемещаться, что стало стимулом к их интенсивному развитию и становлению известному сейчас на весь мир немецкого автопрома. Англичане же радикально отстали в развитии передового автомобильного транспорта. Осознание проблемы пришло к ним только к концу XIX века, когда в 1896 году разрушительный для индустрии закон был наконец отменён.

При этом универсальных кодифицированных международных правил дорожного движения не существовало до 1968 года, хотя первый конвейер по сборке автомобилей Генри Форд запустил ещё в 1913 году. К 1927 году на улицах и дорогах мира колесило только около 15 млн машин марки Ford Model T, не считая всех других автомобилей. Долгое время в городах не было светофоров (в США до 1914, в Европе до 1918 годов), разметки, регулировщиков, можно было водить в алкогольном опьянении и т.д. И лишь в конце 1960-х была заключена Венская конвенция о дорожном движении, стандартизировавшая и закрепившая правила ПДД, а также Венская конвенция о дорожных знаках и сигналах, регулирующая маркировку проезжей части, работу светофоров и т.д.

ii4.pngFord Model T / ©Wikimedia

Иными словами, нормы обращения с той или иной технологией сначала формируются в обществе иногда очень долгое время как этические принципы, а затем институционализируются и закрепляются юридически. Точно так же процесс идёт и в отношении ИИ, что с одной стороны даёт ему эффективно развиваться, а с другой  — оберегает от его возможного негативного воздействия людей и общество в целом.

Когда и кто впервые задумался об этике искусственного интеллекта?

Так как само понятие «искусственный интеллект» появилось лишь в 1956 году, а общественный интерес к этой теме и того позднее — в 1960-е годы, то первыми, кто поставил и попытался решить подобные проблемы, стали писатели-фантасты. Они рассуждали о человекоподобных разумных роботах, поэтому всё течение получило название робоэтика.

ii5.pngСцена из пьесы, изображающая восстание роботов / ©Wikimedia

В романе Карела Чапека «R.U.R.» (1920), где впервые он и предложил термин «робот», существовала Лига гуманности. Она декларировала, что роботы не должны подвергаться бесчеловечному обращению. Затем знаменитые «Три закона робототехники» плюс «нулевой закон», сформулированные учёным и писателем Айзеком Азимовым в рассказе «Хоровод» (1942) и романе «Роботы и Империя» (1986). Звучат они так:

0. Робот не может причинить вред человечеству или своим бездействием допустить, чтобы человечеству был причинён вред.

  1. Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинён вред.
  2. Робот должен повиноваться всем приказам, которые даёт человек, кроме тех случаев, когда эти приказы противоречат Первому Закону.
  3. Робот должен заботиться о своей безопасности в той мере, в которой это не противоречит Первому или Второму Законам.

В прикладном аспекте к теме вернулись с начала 2000-х годов, когда роботы стали активно заселять не только сборочные конвейеры предприятий, но и появляться на улицах городов, в домах людей и т.д. В 2004 году в Сан-Ремо (Италия) прошёл Первый международный симпозиум по робоэтике, а в 2017 году Европарламентом была принята Европейская хартия робототехники. Сейчас дискуссии о робоэтике вновь обострились из-за массового распространения боевых автономных роботов и дронов, а также появления человекоподобных сексоботов.

Кто и как сформулировал основные этические принципы именно в сфере искусственного интеллекта?

С завершением «второй зимы искусственного интеллекта» и новым расцветом нейросетей и моделей глубокого обучения в 2010-х годах этикой ИИ озаботились крупнейшие IT-компании мира. В 2016 году Microsoft опубликовала «10 законов для искусственного интеллекта». Своё видение этики ИИ сформулировалаhttps://www.ibm.com/cloud/learn/ai-ethics и IBM. На сегодняшний момент у 30 крупных IT-компаний в мире есть собственные своды правил, кодексы и наборы этических принципов в области искусственного интеллекта. Среди них и три российских: Abbyy, Сбер и Яндекс. Но еще более важным и глубоким стал подход различных некоммерческих организаций (НКО), объединяющих академических исследователей, инженеров из коммерческих компаний, инвесторов и бизнесменов. Самым известным кейсом стали сформулированные на Азиломарской конференции в 2017 году «23 принципа искусственного интеллекта». Под ними подписались такие исследователи и мыслители, как Ян Лекун, Илья Суцкевер, Рэй Курцвейл, Стивен Хокинг, Илон Маск, Владимир Оноприенко из России и многие-многие другие. Конкретно этических норм и ценностей касаются 13 принципов.

Можно узнать об «Азиломарских принципах» подробнее?

Вот те из них, что посвящены именно этике:

Безопасность: системы ИИ должны быть безопасными и надёжными в течение всего срока эксплуатации, а также по возможности проверяемыми.

Прозрачность отказов: если система ИИ причиняет вред, должна быть возможность выяснить, почему это произошло.

Прозрачность судебного процесса: любое участие автономной системы в принятии судебных решений должно давать удовлетворительное объяснение, проверяемое компетентной комиссией из авторитетных в этой области людей.

Ответственность: разработчики и создатели продвинутых систем ИИ являются заинтересованными сторонами в моральных последствиях их использования, неправильного использования и любых действий, они несут ответственность и имеют возможность формировать эти последствия.

Согласование ценностей: высокоавтономные системы ИИ должны быть спроектированы таким образом, чтобы их цели и поведение могли быть гарантированно согласованы с человеческими ценностями на протяжении всей их работы.

Человеческие ценности: системы ИИ должны разрабатываться и эксплуатироваться таким образом, чтобы быть совместимыми с идеалами человеческого достоинства, прав, свобод и культурного разнообразия.

Приватность личной жизни: люди должны иметь право доступа, управления и контроля над данными, которые они генерируют, учитывая возможности систем ИИ анализировать и использовать эти данные.

Свобода и частная жизнь: Применение ИИ к личным данным не должно необоснованно ограничивать реальную или предполагаемую свободу людей.

Общее благо: технологии ИИ должны приносить пользу и расширять возможности как можно большего числа людей.

Общее процветание: экономическое процветание, созданное ИИ, должно быть широко распространено на благо всего человечества.

Человеческий контроль: люди должны выбирать, как им делегировать решения системам ИИ (и делать ли это вообще) для достижения целей, также определённых человеком.

Отсутствие злоупотреблений властью: власть, полученная благодаря контролю над высокоразвитыми системами ИИ, должна применяться с уважением, а также улучшать, а не подрывать социальные и гражданские процессы, от которых зависит здоровье общества.

Гонка вооружений ИИ: следует избегать гонки вооружений в области смертоносного автономного оружия.

Уф, как-то очень уж много принципов, может есть более простые системы этических постулатов, которые легко запомнить?

В целом, большинство специалистов по этике искусственного интеллекта сходятся на следующем наборе этических принципов:

  • приватность
  • прозрачность
  • надёжность
  • подотчетность
  • равный доступ
  • безопасность
  • достоверность
  • проверяемость
  • контролируемость

Кажется, что пока это всего лишь декларации и все эти принципы выглядят очень абстрактно. Как их применение происходит на практике?

Чтобы этика работала, необходимы стратегии по её внедрению и операционализация этических принципов в виде конкретных прикладных решаемых задач.

В настоящее время государственные и надгосударственные органы, коммерческие компании и НКО пытаются согласовать и внедрить подход ethics by design — продумывание и решение разнообразных потенциальных этических дилемм еще на стадии проектирования и разработки систем искусственного интеллекта. Такой подход серьезно усложняет процесс разработки и требует дополнительных компетенций от инженеров и программистов, что вызывает немало трудностей в его имплементации.

Второй подход — AI Localism — тоже труден для непосредственного перевода. Его суть в том, чтобы отталкиваться не от решения абстрактных и всеобъемлющих моральных дилемм, а повсеместно собирать лучшие локальные практики работы с этическими вопросами при внедрении ИИ на уровне отдельных городов и стран, либо кейсы противодействия неэтичным системам.

Третий подход — операционализация этических проблем не через принципы, а через конкретные описываемые риски и их предотвращение. Он ближе и понятнее для индустрии и государственных органов. Если показать экономическую целесообразность просчета рисков и работы по их устранению, то задача реализации этических принципов обретает осязаемые контуры и становится вполне решаемой.

Четвертый подход — дать голос всем заинтересованным сторонам, то есть собирать обратную связь от пользователей, независимых исследователей, НКО, маргинальных и дискриминируемых групп, а не только от разработчиков, экспертов и регуляторных органов.

Как в России обстоит дело с этикой искусственного интеллекта?

Россия в этом вопросе среди передовых держав. В ноябре 2021 года ЮНЕСКО приняла первую глобальную конвенцию — «Рекомендации по этике искусственного интеллекта ЮНЕСКО», которую поддержала Россия и ещё 190 стран мира (США, напомним, из ЮНЕСКО вышли еще в 2018 году). При этом только два государства на Генеральной конференции ЮНЕСКО в Париже заявили, что у них также есть свои рамки, в которых они будут развивать технологии искусственного интеллекта — Китай и Россия.

26 октября 2021 года в Москве в пресс-центре ТАСС прошёл первый международный форум «Этика искусственного интеллекта: начало доверия». В ходе форума был принят российский «Кодекс этики в сфере ИИ». К настоящему моменту кодекс подписали более 100 российских организаций.

ii7.pngФорум «Этика искусственного интеллекта: начало доверия» / ©ТАСС

Он базируется на следующих предпосылках: носит рекомендательный характер, присоединение осуществляется на добровольной основе, распространяется только на гражданские разработки, государственное регулирование уравновешивается инструментами мягкого права. По сути, кодекс не столько определяет этику ИИ, сколько помогает организовать взаимоотношения людей и компаний в связи с развитием ИИ.

На каких принципах построен российский «Кодекс этики в сфере ИИ» и как он помогает отечественным компаниям и исследователям?

В основе российского «Кодекса этики в сфере ИИ» лежат шесть ключевых принципов:

  1. Главный приоритет развития технологий ИИ — защита интересов людей, отдельных групп и каждого человека;
  2. Необходимость осознания ответственности при создании и использовании ИИ;
  3. Ответственность за последствия применения ИИ всегда лежат на человеке;
  4. Технологии внедрять там, где это принесёт пользу людям;
  5. Интересы развития технологий ИИ выше интересов конкуренции;
  6. Важна максимальная прозрачность и правдивость в информировании об уровне развития технологий ИИ, их возможностях и рисках.

На сегодняшний день данный кодекс по сути устанавливает в России систему «мягкого» регулирования применения технологий искусственного интеллекта, а также служит неким инструментом взаимодействия между индустрией, обществом и органами государственной власти.

Пожалуйста, оцените статью:
Пока нет голосов
Источник(и):

Naked Science