Разработчики генеративных моделей ИИ станут уязвимы для судебных исков в ЕС

Друзья, с момента основания проекта прошло уже 20 лет и мы рады сообщать вам, что сайт, наконец, переехали на новую платформу.

Какое-то время продолжим трудится на общее благо по адресу https://n-n-n.ru.
На новой платформе мы уделили особое внимание удобству поиска материалов.
Особенно рекомендуем познакомиться с работой рубрикатора.

Спасибо, ждём вас на N-N-N.ru

Чат-бот OpenAI ChatGPT был запрещен в Италии из-за нарушения защиты данных, что спровоцировало расследования и в других странах ЕС. Регуляторов беспокоят отказ компании раскрывать механизм обучения ИИ, недостоверные ответы и отсутствие возрастных фильтров. OpenAI удалось договориться с итальянскими властями, но это может быть только начало.

В 2024 году в ЕС должен вступить в силу закон об искусственном интеллекте, который потребует раскрытия наборов обучающих данных. В этой связи эксперты ожидают, что многие компании, создающие ИИ-модели, станут уязвимы для судебных исков.

Итальянское управление по защите данных (GPDP) обвинило OpenAI в неточной или вводящей в заблуждение информации, неспособности уведомить пользователей о методах сбора данных, незаконной обработке персональных данных и неспособности ограничить использование сервиса детьми младше 13 лет. Регулятор приказал OpenAI немедленно прекратить использование личной информации граждан Италии в своих обучающих данных для ChatGPT. Компания согласилась ограничить доступ к сервису в стране, пока пыталась решить проблему. ChatGPT вернулся в Италию 28 апреля, при этом OpenAI не внесла серьезных изменений в сервис.

Юридические проблемы компаний, создающих подобные чат-боты, скорее всего, только начинаются. В ЕС применяется Общий регламент по защите данных (GDPR), но готовится новый закон, который будет касаться именно ИИ, что, вероятно, откроет новую эру регулирования для таких систем, как ChatGPT. С марта как минимум три страны ЕС — Германия, Франция и Испания — начали собственные расследования в отношении ChatGPT. По ту сторону Атлантики Канада оценивает проблемы конфиденциальности в соответствии со своим Законом о защите личной информации и электронных документов.

Обеспокоенность регуляторов можно разделить на две категории: откуда берутся обучающие данные ChatGPT и как OpenAI предоставляет информацию своим пользователям.

OpenAI утверждает, что при обучении чат-бота опирается на «множество лицензированных и общедоступных источников данных, которые включают общедоступную личную информацию», но конкретно их не называет. Европейские регулирующие органы утверждают, что секретность обучающих данных OpenAI не позволяет проверить, была ли полученная личная информация изначально предоставлена с согласия пользователя. Итальянский GPDP утверждал, что у OpenAI «нет законных оснований» для ее сбора.

OpenAI также собирает информацию непосредственно от пользователей, как и любая интернет-платформа — имя, контактную информацию, данные карты. Но, что более важно, компания записывает взаимодействие пользователей с ChatGPT. Как указано в FAQ, эти данные могут просматриваться сотрудниками OpenAI и использоваться для обучения будущих версий модели. Люди задают ChatGPT личные вопросы, используя бота как терапевта, а это означает, что компания собирает конфиденциальную информацию. Некоторые из этих данных могли быть собраны от несовершеннолетних, поскольку строгой проверки возраста нет. Это не соответствует правилам ЕС, которые запрещают сбор данных от лиц моложе 13 лет. Кроме того, отсутствие возрастных фильтров в ChatGPT дает несовершеннолетним «абсолютно неподходящие ответы по степени их развития и самосознания».

Склонность ChatGPT к предоставлению ложной информации — еще одна проблема. Правила GDPR предусматривают, что все личные данные должны быть точными. Текстовые генераторы ИИ склонны к «галлюцинациям» — неверным или неуместным ответам на запрос. Так, в Австралии региональный мэр пригрозил подать в суд на OpenAI за клевету после того, как ChatGPT ложно заявил, что тот отбывал срок в тюрьме за взяточничество.

Правила GDPR создавались не для решения проблем, связанных с искусственным интеллектом. Но такие требования могут появиться совсем скоро. Еще в 2021 году ЕС представил первый проект Закона об искусственном интеллекте (AIA) — закона, который будет работать вместе с GDPR.

Положения AIA выходят за рамки защиты данных. Предложенная поправка обяжет компании раскрывать любые защищенные авторским правом материалы, используемые для разработки генеративных инструментов искусственного интеллекта. Это позволит раскрыть секретные наборы данных, что сделает компании уязвимыми для судебных исков о нарушении прав, которые уже коснулись некоторых сервисов. Законы по регулированию ИИ могут вступить в силу в Европе ближе к концу 2024 года.

Пожалуйста, оцените статью:
Пока нет голосов
Источник(и):

ХайТек+