Первое масштабное регулирование европейского рынка интеллектуальных технологий: ИИ с человеческим лицом

Друзья, с момента основания проекта прошло уже 20 лет и мы рады сообщать вам, что сайт, наконец, переехали на новую платформу.

Какое-то время продолжим трудится на общее благо по адресу https://n-n-n.ru.
На новой платформе мы уделили особое внимание удобству поиска материалов.
Особенно рекомендуем познакомиться с работой рубрикатора.

Спасибо, ждём вас на N-N-N.ru

Автор: Анатолий Зазулин. Системы, основанные на ИИ, начинают применяться во все большем количестве стран. Использование новых ИИ-технологий, однако, вызывает не только одобрение, но и критику. Основными лидерами по критике применения ИИ являются США и Китай.

В 2010–2011 году более 206 учителей в штате Вашингтон были уволены на основании сомнительных результатов работы интеллектуальной системы IMPACT. В 2016 году при независимом анализе использующейся в США ИИ-системы прогноза криминального рецидива COMPAS было установлено, что в качестве входных параметров система учитывала расу: осужденным афроамериканского происхождения в результате анализа она рекомендовала назначить более длительные сроки наказания. В Китае ИИ-системы используются для контроля над поведением граждан.

На фоне таких неоднозначных решений, Европа решила создать свой собственный тренд – ИИ с человеческим лицом. С этой целью в апреле Еврокомиссией был подготовлен Проект общеевропейского регулирования рынка ИИ.

Основная цель

«Европа должна стать мировым центром надежного ИИ» под этим девизом проходила работа Еврокомиссии. «В работе с ИИ доверие является обязательным условием. С помощью новых правил ЕС сможет выдвинуться на передовую в области разработки новых глобальных стандартов обеспечения надежности ИИ», – утверждает вице-председатель Еврокомиссии Маргрете Вестагер.

Планируется запрет таких ИИ-продуктов, которые могут угрожать безопасности, имущественным интересам и правам людей. К системам ИИ с высокой степенью угрозы будут предъявляться строгие требования, которым они должны соответствовать для выхода на рынок.

Европейская комиссия обновила свой подход к передовым достижениям в области ИИ, сосредоточив внимание на ускорении инвестиций в ИИ-технологии и учёт новых вызовов, возникших, в частности, в связи с пандемией коронавируса. В рамках этого подхода планируется ввести новые правила, которые позволят адаптировать новое поколение ИИ-продуктов к требованиям безопасности и повысить доверие к ним со стороны пользователей.

Комиссар по внутреннему рынку ЕС Тьерри Бретон в связи с этим отметил: «ИИ – это не самоцель, это инструмент, который используется на протяжении десятилетий. Но благодаря современным вычислительным мощностям у него появились совершенно новые возможности. Это открывает огромный потенциал в таких разных областях, как здравоохранение, транспорт, энергетика, сельское хозяйство, туризм и кибербезопасность. Однако ИИ-технологии также связаны с рисками. Новые правила Еврокомиссии направлены на укрепление позиций Европы как глобального центра разработки и продажи ИИ-продуктов "от лаборатории до рынка». Они также направлены на обеспечение соответствия ИИ европейским ценностям, а также призваны помочь раскрыть потенциал ИИ в направлении промышленного использования".

Как утверждает Еврокомиссия, новое регулирование ИИ обеспечит европейцам доверие к тому, что он может предложить. Гибкие правила будут учитывать конкретные риски, создаваемые системами ИИ, и установят самые высокие стандарты к ИИ в мире. Скоординированный план Еврокомиссии определяет изменения во внутренней и инвестиционной политике стран-членов ЕС, необходимые для укрепления лидерства Европы в разработке ориентированного на человека, устойчивого, безопасного, инклюзивного и надежного ИИ.

Европейский подход

Новые правила будут применяться непосредственно и одинаково во всех государствах-членах ЕС. Они основываются на следующей шкале рисков:

Неприемлемый риск. В эту группу входят приложения, которые манипулируют поведением человека в обход свободной воли пользователя (например, игрушки с голосовым помощником, побуждающие несовершеннолетних к опасному поведению), а также системы, позволяющие властям оценивать социальное поведение (социальный скоринг). Такие системы подлежат запрету.

Высокий риск. К данной категории относятся ИИ-продукты, использующиеся в следующих сферах:

  • Критическая инфраструктура (например, транспорт), где жизнь и здоровье людей могут быть подвергнуты чрезвычайному риску.
  • Образование или профессиональная подготовка, где технологиями может быть затронут доступ человека к образованию и профессиональной деятельности (например, оценка экзаменов).
  • Важные для безопасности компоненты других продуктов (например, ИИ для роботизированной хирургии).
  • Трудоустройство, управление человеческими ресурсами и самозанятость (например, программное обеспечение для оценки резюме соискателей при приеме на работу).
  • Основные частные и государственные услуги (например, кредитный скоринг, лишающий граждан возможности получить кредит).
  • Правоохранительная деятельность, в рамках которой могут нарушаться основные права людей (например, оценка доказательств).
  • Миграция, предоставление убежища и пограничный контроль (например, проверка подлинности проездных документов).
  • Отправление правосудия и демократические процессы (например, правоприменительная деятельность).

ИИ с высокой степенью риска должны будут соответствовать строгим требованиям (в противном случае они не смогут выйти на рынок):

  • Адекватные системы оценки и снижения рисков.
  • Высокое качество наборов данных, используемых для обучения ИИ.
  • Протоколирование операций для обеспечения возможности отслеживания результатов обучения и работы ИИ.
  • Подробная техническая документация, содержащая всю необходимую информацию об ИИ и его назначении.
  • Четкая и адекватная информация для пользователей.
  • Адекватный контроль со стороны техподдержки для минимизации рисков.
  • Высокий уровень надежности, безопасности и точности.

В частности, все виды систем удаленной биометрической идентификации несут в себе высокий уровень риска, и к ним будут предъявляться повышенные требования. Их использование правоохранительными органами в режиме реального времени в общественных местах будет запрещено.

Низкий риск. К данной группе относятся такие системы ИИ, как чат-боты. Пользователи должны понимать, что имеют дело с машиной, и иметь возможность принять взвешенное решение о том, стоит ли продолжать пользоваться приложением.

Минимальный риск. К интеллектуальным технологиям с минимальным риском Еврокомиссия отнесла видеоигры и спам-фильтры, а также иные технологии, не вошедшие в другие группы риска. Правила предлагают не вмешиваться в регулирование данной сферы, так как такие технологии представляют минимальную опасность для гражданских свобод или безопасности.

Проект Еврокомиссии направлен для обсуждения и утверждения в Европейский парламент. В случае утверждения, правила должны будут быть имплементированы в законодательство всех стран-участниц ЕС.

Пожалуйста, оцените статью:
Пока нет голосов
Источник(и):

Хабр