Как будет регулироваться искусственный интеллект в 2024 году?

Друзья, с момента основания проекта прошло уже 20 лет и мы рады сообщать вам, что сайт, наконец, переехали на новую платформу.

Какое-то время продолжим трудится на общее благо по адресу https://n-n-n.ru.
На новой платформе мы уделили особое внимание удобству поиска материалов.
Особенно рекомендуем познакомиться с работой рубрикатора.

Спасибо, ждём вас на N-N-N.ru

Блог компании OTUS. Автор оригинала: Tate Ryan-Mosley, Melissa Heikkilä, Zeyi Yang. Перевод – Ксения Мосеенкова. В наступившем году вступят в силу первые масштабные законы об искусственном интеллекте, а также будут предприняты глобальные усилия по привлечению технологических компаний к ответственности.

В 2023 году политика и регулирование искусственного интеллекта превратились из нишевой, нердовой темы в новость на первой полосе. Отчасти это произошло благодаря проекту OpenAI ChatGPT, который помог искусственному интеллекту стать мейнстримом, а также показал людям, как работают и не работают системы искусственного интеллекта. Это был монументальный год для политики: мы увидели первый масштабный закон об искусственном интеллекте, согласованный в Европейском союзе, слушания в Сенате и исполнительные распоряжения в США, а также специальные правила в Китае для рекомендательных алгоритмов.

Если 2023 был годом, когда законодатели согласовывали свое видение, то 2024-й станет годом, когда политика начнет превращаться в конкретные действия.

Соединенные Штаты

В 2023 году искусственный интеллект действительно стал частью политической дискуссии в США. Но это были не только дебаты. Были и действия, кульминацией которых стал указ президента Байдена об искусственном интеллекте в конце октября — обширная директива, призывающая к большей прозрачности и новым стандартам.

Благодаря этой деятельности в США начала формироваться своя политика в области ИИ: дружественная к индустрии искусственного интеллекта, с акцентом на передовую практику, опорой на различные ведомства для разработки собственных правил и нюансированным подходом к регулированию каждого сектора экономики по-своему.

Следующий год будет развиваться на импульсе 2023, и многие пункты, подробно описанные в указе Байдена, будут введены в действие. Мы также будем много слышать о новом Институте безопасности искусственного интеллекта США, который будет отвечать за реализацию большинства мер, предусмотренных указом.

С точки зрения Конгресса, пока неясно, что именно произойдет. Лидер большинства в Сенате Чак Шумер недавно дал понять, что в дополнение к указу могут появиться новые законы. Уже существует несколько законодательных предложений, затрагивающих различные аспекты искусственного интеллекта, такие как прозрачность, дипфейки и ответственность за платформу. Но пока неясно, какие из этих уже предложенных законопроектов получат поддержку, и получат ли вообще.

Однако можно ожидать подход, оценивающий типы и виды использования искусственного интеллекта по степени риска, который они представляют, — рамочное законодательство, аналогичное закону Европейского Союза об искусственом интеллекте. Национальный институт стандартов и технологий уже предложил концептуальную основу, которую теперь придется применять на практике каждому сектору и ведомству — говорит Крис Месерол, исполнительный директор Frontier Model Forum, группы отраслевых стандартов.

Ясно и другое: президентские выборы в США в 2024 году во многом определят ход дискуссии о регулировании искусственного интеллекта. Как мы видим на примере влияния генеративного искусственного интеллекта на социальные сети и распространение дезинформации, можно ожидать, что электральные события повлияют на ход дискуссии о предотвращении вреда от этой технологии.

Европа

Европейский союз недавно принял Закон об искусственном интеллекте — первый в мире масштабный закон об ИИ.

После интенсивных технических доработок и официального утверждения европейскими странами и Европейским парламентом в первой половине 2024 года Закон об искусственном интеллекте начнет действовать довольно быстро. В самом оптимистичном сценарии запреты на использование некоторых видов искусственного интеллекта могут быть введены уже в конце этого года.

Все это означает, что 2024 год станет напряженным годом для сферы искусственного интеллекта, поскольку она готовится к соблюдению новых правил. Большинство приложений, использующих искусственный интеллект, получат освобождение от действия Закона об ИИ. В тоже время компании, разрабатывающие базовые модели и приложения с «высоким риском» для основных прав (например, предназначенные для использования в сфере образования, здравоохранения и правопорядка) должны будут соответствовать новым стандартам Евросоюза.

В Европе полиции не разрешат использовать технологии в общественных местах, если только они не получат разрешение суда на использование в конкретных целях, таких как борьба с терроризмом, предотвращение торговли людьми или поиск пропавшего человека.

Другие виды использования искусственного интеллекта будут полностью запрещены в Европейском союзе, например создание баз данных для распознавания лиц, как у Clearview AI, или использование технологии распознавания эмоций на работе или в школах. Закон об искусственном интеллекте потребует от компаний большей прозрачности в разработке своих моделей, и заставит их, а также организации, использующие ИИ-системы с высоким риском, нести ответственность за любой причиненный вред.

Компании, разрабатывающие базовые модели — модели, на которых основаны другие продукты искусственного интеллекта, такие как GPT-4, — должны будут начать соблюдать закон в течение одного года с момента его вступления в силу. У других технологических компаний есть два года на внедрение правил.

Чтобы соответствовать новым требованиям, компаниям, занимающимся разработкой искусственного интеллекта, придется тщательнее подходить к созданию своих систем и тщательнее документировать работу, чтобы ее можно было проверить. Закон потребует от компаний быть более прозрачными в отношении того, как обучались их модели, и обеспечит, чтобы высокорисковые ИИ-системы обучались и тестировались на репрезентативных наборах данных — чтобы, например, свести к минимуму предвзятость.

Евросоюз считает, что самые мощные модели искусственного интеллекта, такие как GPT-4 от OpenAI и Gemini от Google, могут представлять «системный» риск для граждан и поэтому нуждаются в дополнительной работе, чтобы соответствовать стандартам Евросоюза. Компании должны принять меры по оценке и снижению рисков, обеспечить безопасность систем, а также сообщать о серьезных инцидентах и делиться информацией о потреблении энергии. Компании должны сами оценить, достаточно ли мощны их модели, чтобы попасть в эту категорию. Компании, занимающиеся разработкой искусственного интеллекта с открытым исходным кодом, освобождены от большинства требований Закона об ИИ к прозрачности, если только они не разрабатывают модели, требующие больших вычислений, как GPT-4. Несоблюдение правил может привести к крупным штрафам или блокировке их продукции на территории Европейского союза.

Евросоюз также работает над другим законопроектом под названием «Директива об ответственности за искусственный интеллект», который обеспечит людям, пострадавшим от технологий, финансовую компенсацию. Переговоры по этому законопроекту еще продолжаются и, скорее всего, возобновятся в этом году.

Некоторые другие страны придерживаются более сдержанного подхода. Например, Великобритания, где находится компания Google DeepMind, заявила, что не намерена регулировать искусственный интеллект в ближайшей перспективе. Однако компаниям за пределами Евросоюза, второй по величине экономики мира, все равно придется соблюдать Закон об искусственном интеллекте, если они хотят вести бизнес в торговом блоке.

Профессор права Колумбийского университета Ану Брэдфорд назвала это «эффектом Брюсселя» — благодаря тому, что Евросоюз первым вводит регулирование, он может установить де-факто глобальный стандарт, определяя, как мир ведет бизнес и развивает технологии. Евросоюз успешно добился этого, введя строгий режим защиты данных — GDPR, который был заимствован повсюду — от Калифорнии до Индии. Он надеется повторить этот трюк, когда дело дойдет до искусственного интеллекта.

Китай

До сих пор регулирование искусственного интеллекта в Китае было глубоко фрагментированным и разрозненным. Вместо того чтобы регулировать искусственный интеллект в целом, страна выпускала отдельные законодательные акты каждый раз, когда появлялся новый ИИ-продукт. Поэтому в Китае есть один свод правил для алгоритмических рекомендательных сервисов (приложений, подобных TikTok, и поисковых систем), другой — для дипфейков, а третий — для генеративного искусственного интеллекта.

Преимущество такого подхода заключается в том, что он позволяет Пекину быстро реагировать на риски, возникающие в результате развития технологий — как для пользователей, так и для правительства. Но проблема состоит в том, что он не позволяет выработать более долгосрочную и панорамную перспективу.

Это может измениться в ближайшем будущем. В июне 2023 года Государственный совет Китая, высший орган управления, объявил, что в его законодательной повестке стоит «Закон об искусственном интеллекте». Этот закон будет охватывать все, как Закон об искусственном интеллекте в Европе. Из-за его амбициозного масштаба трудно сказать, сколько времени займет законодательный процесс. Возможно, мы увидим первый проект в 2024 году, но может потребоваться и больше времени. В то же время не будет удивительным, если китайские регуляторы интернета введут новые правила для борьбы с новыми популярными инструментами искусственного интеллекта или типами контента, которые появятся в следующем году.

Пока информации о нем очень мало, но один документ может помочь нам предсказать новый закон: ученые из Китайской академии общественных наук, государственного исследовательского института, в августе выпустили свою версию китайского закона об искусственном интеллекте. В этом документе предлагается создать «Национальный офис по искусственному интеллекту» для контроля за развитием искусственного интеллекта в Китае, требуется ввести ежегодный независимый «Отчет о социальной ответственности» моделей фондов, а также устанавливается «Негативный список» областей искусственного интеллекта с повышенным риском, которые компании не могут даже исследовать без разрешения правительства.

В настоящее время китайские ИИ-компании и так подвержены множеству нормативных требований. Фактически, любая базовая модель должна быть зарегистрирована правительством, прежде чем она будет представлена китайской общественности (по состоянию на конец 2023 года, свои ИИ-модели зарегистрировали 22 компании).

Это означает, что искусственный интеллект в Китае больше не является Диким Западом. Но как именно будут соблюдаться эти правила, остается неясным. В ближайший год компаниям, работающим в области генеративного искусственного интеллекта, придется разбираться с реальным положением дел, особенно в вопросах проверки безопасности и нарушения прав интеллектуальной собственности.

В то же время, поскольку иностранные ИИ-компании не получили разрешения на выпуск своих продуктов в Китае (и, скорее всего, не получат в будущем), созданная внутренняя коммерческая среда защищает китайские компании. Это может помочь им получить преимущество перед западными компаниями, но также может подавить конкуренцию и усилить контроль Китая над высказываниями в сети.

Остальной мир

Скорее всего, в этом году мы увидим, как в других частях света вводятся новые правила в области искусственного интеллекта. Одним из регионов, за которым стоит следить, будет Африка. По словам Мелоди Мусони, сотрудника Европейского центра управления политикой развития, в начале 2024 года Африканский союз, скорее всего, выпустит стратегию в области искусственного интеллекта для континента. Она будет призвана определить политику, которую отдельные страны смогут воспроизвести чтобы конкурировать в области искусственного интеллекта и защитить африканских потребителей от западных технологических компаний.

Некоторые страны, например Руанда, Нигерия и ЮАР, уже разработали национальные стратегии в области искусственного интеллекта и работают над созданием образовательных программ, вычислительных мощностей и политики, благоприятной для индустрии, чтобы поддержать ИИ-компании. Глобальные организации, такие как ООН, ОЭСР (Организации экономического сотрудничества и развития), Большая двадцатка, а также региональные альянсы начали создавать рабочие группы, консультативные советы, принципы, стандарты и заявления об искусственном интеллекте. Такие группы, как ОЭСР, могут оказаться полезными для обеспечения согласованности регулирования в различных регионах, что облегчит бремя соблюдения требований для компаний, работающих в сфере искусственного интеллекта.

В геополитическом плане мы, вероятно, увидим рост различий между тем, как демократические и авторитарные страны развивают и вооружают свои отрасли искусственного интеллекта. Будет интересно посмотреть, в какой степени ИИ-компании будут отдавать предпочтение глобальной экспансии или внутренней специализации в 2024 году. Возможно, им придется принимать непростые решения.

Пожалуйста, оцените статью:
Пока нет голосов
Источник(и):

Хабр