В иске о защите авторских прав от генеративного ИИ появились новые доказательства

Друзья, с момента основания проекта прошло уже 20 лет и мы рады сообщать вам, что сайт, наконец, переехали на новую платформу.

Какое-то время продолжим трудится на общее благо по адресу https://n-n-n.ru.
На новой платформе мы уделили особое внимание удобству поиска материалов.
Особенно рекомендуем познакомиться с работой рубрикатора.

Спасибо, ждём вас на N-N-N.ru

В судебном иске художников против компаний, создающих изображения с использованием искусственного интеллекта (Midjourney, DeviantArt, Runway и Stability AI), появились новые доказательства и аргументы. Художники утверждают, что даже неохраняемые произведения могут быть автоматически защищены авторскими правами, если содержат уникальные знаки художника, например, подпись.

Также говорится, что сама архитектура моделей диффузии создана для максимального повторения начального обучающего материала. Вопрос о том, создают ли модели ИИ новый контент или копируют существующий, остается ключевым. Суду предстоит решить, является ли использование произведений добросовестным или это нарушение авторских прав.

В октябре судья окружного суда США Уильям Оррик постановил отклонить большую часть первоначального коллективного иска, поданного против компаний, занимающихся искусственным интеллектом, тремя художниками— Сарой Андерсон, Келли МакКернан и Карлой Ортис. Аргументация Оррика заключалась в том, что многие из произведений искусства на самом деле не были зарегистрированы авторскими правами в Бюро авторских прав США. Однако решение Оррика оставило истцам (художникам) право повторно подать новую жалобу, что они и сделали.

В измененной жалобе, поданной на этой неделе, к первоначальным истцам присоединились еще семь художников: Хоук Саутворт, Гжегож Рутковски, Грегори Манчесс, Джеральд Бром, Джингна Чжан, Джулия Кэй, Адам Эллис.

Истцы представили новые доказательства и аргументы. В частности, утверждается, что даже неохраняемые произведения могут автоматически защищаться авторскими правами, если они содержат «уникальный знак» художника, например, его подпись. Также отмечается, что компании по искусственному интеллекту, использующие некоторые наборы данных для обучения своих моделей, создают «неавторизованные копии».

Поднимается вопрос о том, что сама архитектура моделей диффузии создана для максимального повторения начального обучающего материала. Этот метод включает в себя процесс добавления «шума» или дополнительных пикселей к изображению на нескольких этапах, а затем попытку обратного процесса для приближения к исходному изображению.

В иске цитируется исследователь Google DeepMind Николас Карлин. В его научной статье от января 2023 года говорится о том, что модели диффузии явно обучаются воссоздавать набор данных обучения. В жалобе приведена еще одна статья исследователей из Массачусетского технологического института, Гарварда и Брауна, опубликованная в июле 2023 года.

В ней говорится, что «модели диффузии — и в частности Stable Diffusion — исключительно хороши в создании убедительных изображений, напоминающих работы конкретных художников, если имя художника указано в подсказке». Между тем некоторые компании в области искусственного интеллекта, такие как DeviantArt и OpenAI, создали системы, позволяющие художникам запретить использование своих работ для обучения моделей искусственного интеллекта.

В жалобе также сказано, что остается без ответа вопрос, который подняли исследователи: создают ли масштабные модели ИИ новый контент или просто копируют и интерполируют между отдельными примерами обучения. Этот вопрос становится ключевым в данном случае. Из опыта использования генераторов изображений ясно, что они способны подражать существующему искусству, но не точь-в-точь. В конечном итоге результат зависит от текстового запроса пользователя. Например, при запросе «Мона Лиза» у Midjourney появляется четыре изображения, и лишь одно из них отдаленно напоминает знаменитую картину Леонардо да Винчи.

Однозначным остается то, что компании использовали для обучения ИИ-моделей произведения искусства, созданные людьми, включая, вероятно, те, что защищены авторским правом. Подпадает ли это под добросовестное использование или квалифицируется как нарушение авторских прав, в конечном итоге будет решать суд. Через 20 часов после публикации статьи Venture Beat об иске генеральный директор Stability AI (один из ответчиков) Эмад Мостак заявил в X, что «жалоба демонстрирует непонимание как закона, так и технологии».

Пожалуйста, оцените статью:
Пока нет голосов
Источник(и):

ХайТек+