Первое масштабное регулирование европейского рынка интеллектуальных технологий: ИИ с человеческим лицом
Друзья, с момента основания проекта прошло уже 20 лет и мы рады сообщать вам, что сайт, наконец, переехали на новую платформу.
Какое-то время продолжим трудится на общее благо по адресу
На новой платформе мы уделили особое внимание удобству поиска материалов.
Особенно рекомендуем познакомиться с работой рубрикатора.
Спасибо, ждём вас на N-N-N.ru
Автор: Анатолий Зазулин. Системы, основанные на ИИ, начинают применяться во все большем количестве стран. Использование новых ИИ-технологий, однако, вызывает не только одобрение, но и критику. Основными лидерами по критике применения ИИ являются США и Китай.
В 2010–2011 году более 206 учителей в штате Вашингтон были уволены на основании сомнительных результатов работы интеллектуальной системы IMPACT. В 2016 году при независимом анализе использующейся в США ИИ-системы прогноза криминального рецидива COMPAS было установлено, что в качестве входных параметров система учитывала расу: осужденным афроамериканского происхождения в результате анализа она рекомендовала назначить более длительные сроки наказания. В Китае ИИ-системы используются для контроля над поведением граждан.
На фоне таких неоднозначных решений, Европа решила создать свой собственный тренд – ИИ с человеческим лицом. С этой целью в апреле Еврокомиссией был подготовлен Проект общеевропейского регулирования рынка ИИ.
Основная цель
«Европа должна стать мировым центром надежного ИИ» под этим девизом проходила работа Еврокомиссии. «В работе с ИИ доверие является обязательным условием. С помощью новых правил ЕС сможет выдвинуться на передовую в области разработки новых глобальных стандартов обеспечения надежности ИИ», – утверждает вице-председатель Еврокомиссии Маргрете Вестагер.
Планируется запрет таких ИИ-продуктов, которые могут угрожать безопасности, имущественным интересам и правам людей. К системам ИИ с высокой степенью угрозы будут предъявляться строгие требования, которым они должны соответствовать для выхода на рынок.
Европейская комиссия обновила свой подход к передовым достижениям в области ИИ, сосредоточив внимание на ускорении инвестиций в ИИ-технологии и учёт новых вызовов, возникших, в частности, в связи с пандемией коронавируса. В рамках этого подхода планируется ввести новые правила, которые позволят адаптировать новое поколение ИИ-продуктов к требованиям безопасности и повысить доверие к ним со стороны пользователей.
Комиссар по внутреннему рынку ЕС Тьерри Бретон в связи с этим отметил: «ИИ – это не самоцель, это инструмент, который используется на протяжении десятилетий. Но благодаря современным вычислительным мощностям у него появились совершенно новые возможности. Это открывает огромный потенциал в таких разных областях, как здравоохранение, транспорт, энергетика, сельское хозяйство, туризм и кибербезопасность. Однако ИИ-технологии также связаны с рисками. Новые правила Еврокомиссии направлены на укрепление позиций Европы как глобального центра разработки и продажи ИИ-продуктов "от лаборатории до рынка». Они также направлены на обеспечение соответствия ИИ европейским ценностям, а также призваны помочь раскрыть потенциал ИИ в направлении промышленного использования".
Как утверждает Еврокомиссия, новое регулирование ИИ обеспечит европейцам доверие к тому, что он может предложить. Гибкие правила будут учитывать конкретные риски, создаваемые системами ИИ, и установят самые высокие стандарты к ИИ в мире. Скоординированный план Еврокомиссии определяет изменения во внутренней и инвестиционной политике стран-членов ЕС, необходимые для укрепления лидерства Европы в разработке ориентированного на человека, устойчивого, безопасного, инклюзивного и надежного ИИ.
Европейский подход
Новые правила будут применяться непосредственно и одинаково во всех государствах-членах ЕС. Они основываются на следующей шкале рисков:
Неприемлемый риск. В эту группу входят приложения, которые манипулируют поведением человека в обход свободной воли пользователя (например, игрушки с голосовым помощником, побуждающие несовершеннолетних к опасному поведению), а также системы, позволяющие властям оценивать социальное поведение (социальный скоринг). Такие системы подлежат запрету.
Высокий риск. К данной категории относятся ИИ-продукты, использующиеся в следующих сферах:
- Критическая инфраструктура (например, транспорт), где жизнь и здоровье людей могут быть подвергнуты чрезвычайному риску.
- Образование или профессиональная подготовка, где технологиями может быть затронут доступ человека к образованию и профессиональной деятельности (например, оценка экзаменов).
- Важные для безопасности компоненты других продуктов (например, ИИ для роботизированной хирургии).
- Трудоустройство, управление человеческими ресурсами и самозанятость (например, программное обеспечение для оценки резюме соискателей при приеме на работу).
- Основные частные и государственные услуги (например, кредитный скоринг, лишающий граждан возможности получить кредит).
- Правоохранительная деятельность, в рамках которой могут нарушаться основные права людей (например, оценка доказательств).
- Миграция, предоставление убежища и пограничный контроль (например, проверка подлинности проездных документов).
- Отправление правосудия и демократические процессы (например, правоприменительная деятельность).
ИИ с высокой степенью риска должны будут соответствовать строгим требованиям (в противном случае они не смогут выйти на рынок):
- Адекватные системы оценки и снижения рисков.
- Высокое качество наборов данных, используемых для обучения ИИ.
- Протоколирование операций для обеспечения возможности отслеживания результатов обучения и работы ИИ.
- Подробная техническая документация, содержащая всю необходимую информацию об ИИ и его назначении.
- Четкая и адекватная информация для пользователей.
- Адекватный контроль со стороны техподдержки для минимизации рисков.
- Высокий уровень надежности, безопасности и точности.
В частности, все виды систем удаленной биометрической идентификации несут в себе высокий уровень риска, и к ним будут предъявляться повышенные требования. Их использование правоохранительными органами в режиме реального времени в общественных местах будет запрещено.
Низкий риск. К данной группе относятся такие системы ИИ, как чат-боты. Пользователи должны понимать, что имеют дело с машиной, и иметь возможность принять взвешенное решение о том, стоит ли продолжать пользоваться приложением.
Минимальный риск. К интеллектуальным технологиям с минимальным риском Еврокомиссия отнесла видеоигры и спам-фильтры, а также иные технологии, не вошедшие в другие группы риска. Правила предлагают не вмешиваться в регулирование данной сферы, так как такие технологии представляют минимальную опасность для гражданских свобод или безопасности.
Проект Еврокомиссии направлен для обсуждения и утверждения в Европейский парламент. В случае утверждения, правила должны будут быть имплементированы в законодательство всех стран-участниц ЕС.
- Источник(и):
- Войдите на сайт для отправки комментариев