ЕС собирается лицензировать все ИИ-модели и проверять их на угрозы демократии
Друзья, с момента основания проекта прошло уже 20 лет и мы рады сообщать вам, что сайт, наконец, переехали на новую платформу.
Какое-то время продолжим трудится на общее благо по адресу
На новой платформе мы уделили особое внимание удобству поиска материалов.
Особенно рекомендуем познакомиться с работой рубрикатора.
Спасибо, ждём вас на N-N-N.ru
Если ЕС примет «Закон об ИИ», это усложнит жизнь всем разработчикам ИИ-систем. От них потребуют дорогого лицензирования, тестирования и контроля производительности, а также раскрытия коммерческих данных о методах обучения ИИ. Американские компании (например, OpenAI, Amazon, Google и IBM) не смогут предоставлять доступ к генерируемым моделями ИИ через API. Если эти же модели станут доступны в Европе без специальной лицензии, разработчики ПО с открытым кодом или дистрибьюторы программ, например, GitHub, могут получить огромные штрафы.
В соответствии с новым законом, разработчики должны регистрировать свой проект ИИ и базовую модель, а также четко заявлять функциональность, которую они планируют реализовать. Если реальная функциональность превысит заявленную, лицензию могут отозвать. Это вызовет проблемы у многих проектов с открытым исходным кодом. Для регистрации также потребуется раскрытие использованных источников данных, вычислительных ресурсов, времени на обучение, контрольных показателей производительности и выполнение Red Teaming — подготовки к отражению кибератак.
Разработчики, использующие системы ИИ, должны будут пройти строгую проверку перед запуском своих продуктов для пользователей. Малые предприятия ЕС будут освобождены от этого требования.
Компаниям придется проводить дорогостоящее тестирование рисков. Список рисков неоднозначен и содержит возможные проблемы для экологии, демократии и соблюдения прав. Согласно запланированным шагам, государства ЕС будут оценивать риски, исходя из размера организации-заявителя, но тесты ещё не разработаны.
Закон об искусственном интеллекте также требует контроля производительности системы после выпуска. При неожиданных возможностях моделей потребуется повторная процедура сертификации.
Новые правила в ЕС значительно ограничат использование API для создания сервисов на базе искусственного интеллекта. Если при использовании API обнаружатся новые возможности, их придется сертифицировать, а для лицензирования третьей стороне обязательно предоставить конфиденциальную информацию. Широкая юрисдикция закона ЕС включает поставщиков ИИ, находящихся за пределами ЕС или создающих продукты для использования в ЕС. Значит, если американский разработчик ПО с открытым исходным кодом разместит модель или код с использованием API на GitHub и этот код станет доступен в ЕС, и разработчик, и GitHub будут нести ответственность за выпуск нелицензированной модели.
Проекты с открытым исходным кодом используют метод LoRA для добавления новой информации и возможностей, что позволяет экономить на дорогостоящей компьютерной инфраструктуре. Однако каждый раз после использования этого метода потребуется проходить повторную сертификацию модели.
Ограничения нового закона могут сделать использование API доступным только корпоративным клиентам, поскольку его создание станет слишком сложным и дорогостоящим.
Компании, которые нарушат «Закон об ИИ», будут платить штрафы в размере от 2% до 4% своего глобального валового дохода, а физические лица — до €20 млн.
Малым и средним предприятиям ЕС эти штрафы не грозят. Если ИИ используется для исследования и разработки экологически чистых энергетических систем или производства чистой энергии, то соблюдение нового закона не требуется.
Эксперты отмечают, что проект «Закона об ИИ» может принести много проблем. Разработчики ПО, особенно решений с открытым исходным кодом, скорее всего, негативно воспримут запреты и требования дорогостоящей сертификации. GitHub и другие подобные платформы могут решить, что с ЕС слишком сложно иметь дело, и закрыть доступ. Это приведет к непредсказуемым последствиям. Еврочиновники понимают риски, но при этом считают необходимым взять разработку ИИ под надежный контроль.
- Источник(и):
- Войдите на сайт для отправки комментариев