Hitech logo

Тренды

В иске о защите авторских прав от генеративного ИИ появились новые доказательства

TODO:
Екатерина Смирнова5 декабря 2023 г., 09:19

В судебном иске художников против компаний, создающих изображения с использованием искусственного интеллекта (Midjourney, DeviantArt, Runway и Stability AI), появились новые доказательства и аргументы. Художники утверждают, что даже неохраняемые произведения могут быть автоматически защищены авторскими правами, если содержат уникальные знаки художника, например, подпись.Также говорится, что сама архитектура моделей диффузии создана для максимального повторения начального обучающего материала. Вопрос о том, создают ли модели ИИ новый контент или копируют существующий, остается ключевым. Суду предстоит решить, является ли использование произведений добросовестным или это нарушение авторских прав.

Самые интересные технологические и научные новости выходят в нашем телеграм-канале Хайтек+. Подпишитесь, чтобы быть в курсе.

В октябре судья окружного суда США Уильям Оррик постановил отклонить большую часть первоначального коллективного иска, поданного против компаний, занимающихся искусственным интеллектом, тремя художниками— Сарой Андерсон, Келли МакКернан и Карлой Ортис. Аргументация Оррика заключалась в том, что многие из произведений искусства на самом деле не были зарегистрированы авторскими правами в Бюро авторских прав США. Однако решение Оррика оставило истцам (художникам) право повторно подать новую жалобу, что они и сделали.

В измененной жалобе, поданной на этой неделе, к первоначальным истцам присоединились еще семь художников: Хоук Саутворт, Гжегож Рутковски, Грегори Манчесс, Джеральд Бром, Джингна Чжан, Джулия Кэй, Адам Эллис.

Истцы представили новые доказательства и аргументы. В частности, утверждается, что даже неохраняемые произведения могут автоматически защищаться авторскими правами, если они содержат «уникальный знак» художника, например, его подпись. Также отмечается, что компании по искусственному интеллекту, использующие некоторые наборы данных для обучения своих моделей, создают «неавторизованные копии». Поднимается вопрос о том, что сама архитектура моделей диффузии создана для максимального повторения начального обучающего материала. Этот метод включает в себя процесс добавления «шума» или дополнительных пикселей к изображению на нескольких этапах, а затем попытку обратного процесса для приближения к исходному изображению.

В иске цитируется исследователь Google DeepMind Николас Карлин. В его научной статье от января 2023 года говорится о том, что модели диффузии явно обучаются воссоздавать набор данных обучения. В жалобе приведена еще одна статья исследователей из Массачусетского технологического института, Гарварда и Брауна, опубликованная в июле 2023 года. В ней говорится, что «модели диффузии — и в частности Stable Diffusion — исключительно хороши в создании убедительных изображений, напоминающих работы конкретных художников, если имя художника указано в подсказке». Между тем некоторые компании в области искусственного интеллекта, такие как DeviantArt и OpenAI, создали системы, позволяющие художникам запретить использование своих работ для обучения моделей искусственного интеллекта.

В жалобе также сказано, что остается без ответа вопрос, который подняли исследователи: создают ли масштабные модели ИИ новый контент или просто копируют и интерполируют между отдельными примерами обучения. Этот вопрос становится ключевым в данном случае. Из опыта использования генераторов изображений ясно, что они способны подражать существующему искусству, но не точь-в-точь. В конечном итоге результат зависит от текстового запроса пользователя. Например, при запросе «Мона Лиза» у Midjourney появляется четыре изображения, и лишь одно из них отдаленно напоминает знаменитую картину Леонардо да Винчи.

Однозначным остается то, что компании использовали для обучения ИИ-моделей произведения искусства, созданные людьми, включая, вероятно, те, что защищены авторским правом. Подпадает ли это под добросовестное использование или квалифицируется как нарушение авторских прав, в конечном итоге будет решать суд. Через 20 часов после публикации статьи Venture Beat об иске генеральный директор Stability AI (один из ответчиков) Эмад Мостак заявил в X, что «жалоба демонстрирует непонимание как закона, так и технологии».