banner

[ad_1]

Anthropic, крупный стартап в области генеративного искусственного интеллекта, в новом судебном иске в среду изложил аргументы, почему обвинения в нарушении авторских прав со стороны группы музыкальных издателей и владельцев контента недействительны.

Осенью 2023 года музыкальные издатели, включая Concord, Universal и ABKCO, подали иск против Anthropic, обвинив их в нарушении авторских прав на чат-бота Claude (теперь замененного Claude 2).

В иске, поданном в федеральный суд Теннесси (где находится Нэшвилл, один из «музыкальных городов» Америки и адресован многим лейблам и музыкантам), утверждается, что бизнес Anthropic получает прибыль от «незаконного» сбора текстов песен из Интернета для обучения своих моделей искусственного интеллекта. которые затем воспроизводят защищенные авторским правом тексты песен для пользователей в виде ответов чат-бота.

Отвечая на ходатайство о предварительном судебном запрете (мера, которая, если она будет принята судом, вынудит Anthropic прекратить предоставлять доступ к своей модели Клода ИИ), Anthropic изложила знакомые аргументы, которые возникали в многочисленных других спорах об авторских правах, связанных с данными обучения ИИ.

Компании поколения ИИ, такие как OpenAI и Anthropic, в значительной степени полагаются на сбор огромных объемов общедоступных данных, включая работы, защищенные авторским правом, для обучения своих моделей, но они утверждают, что такое использование представляет собой добросовестное использование в соответствии с законом. Ожидается, что вопрос об авторских правах на сбор данных дойдет до Верховного суда.

Тексты песен — лишь «мизерная часть» обучающих данных.

В своем ответе Anthropic утверждает, что «использование текстов Истцов для обучения Клода является преобразовательным использованием», которое добавляет «дополнительную цель или другой характер» к оригинальным произведениям.

В поддержку этого в заявке прямо цитируется директор по исследованиям Anthropic Джаред Каплан, заявляющий, что цель состоит в том, чтобы «создать набор данных, который научит нейронную сеть тому, как работает человеческий язык».

Anthropic утверждает, что ее поведение «не оказывает «существенного неблагоприятного воздействия» на законный рынок произведений Истцов, защищенных авторским правом», отмечая, что тексты песен составляют «незначительную долю» обучающих данных, а требуемый масштаб лицензирования несовместим.

Присоединившись к OpenAI, Anthropic заявляет, что лицензирование огромных объемов текста, необходимых для правильного обучения нейронных сетей, таких как Клод, технически и финансово неосуществимо. Обучение требует триллионов фрагментов разных жанров, что может оказаться недостижимым масштабом лицензирования для любой стороны.

Возможно, самый новый аргумент в иске утверждает, что сами истцы, а не Anthropic, совершали «волевое поведение», необходимое для ответственности за прямое нарушение прав в отношении результатов.

«Волевое поведение» в законе об авторском праве относится к идее, согласно которой лицо, обвиняемое в нарушении прав, должно быть доказано, что оно контролирует контент, нарушающий авторские права. В этом случае Anthropic, по сути, заявляет, что истцы лейбла заставили свою модель искусственного интеллекта Claude создать контент, нарушающий авторские права, и, таким образом, контролируют и несут ответственность за нарушения, о которых они сообщают, в отличие от Anthropic или ее продукта Claude, который реагирует на ввод пользователей автономно.

В материалах дела доказываются доказательства того, что эти материалы были получены в результате собственных «нападок» истцов на Клода с целью получения текстов песен.

Непоправимый вред?

Помимо оспаривания ответственности за авторские права, Anthropic утверждает, что истцы не могут доказать непоправимый вред.

Ссылаясь на отсутствие доказательств того, что доходы от лицензирования песен снизились с момента запуска Claude или что качественный ущерб является «определенным и немедленным», Anthropic отметила, что сами издатели считают, что денежный ущерб может их спасти, что противоречит их собственным заявлениям о «непоправимом ущербе» ( поскольку, по определению, признание денежного ущерба будет означать, что этот ущерб действительно имеет цену, которую можно определить количественно и заплатить).

Anthropic утверждает, что «чрезвычайное смягчение» судебного запрета против нее и ее моделей искусственного интеллекта является неоправданным, учитывая слабые доказательства истцами непоправимого вреда. В нем также утверждалось, что любые тексты песен Клода были непреднамеренной «ошибкой», которая теперь исправлена ​​с помощью новых технологических средств.

В частности, Anthropic утверждает, что ввела в Claude дополнительные меры защиты, чтобы предотвратить любое дальнейшее отображение текстов песен истцов, защищенных авторским правом. Поскольку предполагаемое нарушение авторских прав не может повториться снова, производитель модели говорит, что просьба истцов о предоставлении помощи, запрещающей Клоду публиковать тексты песен, является спорной.

Он утверждает, что запрос музыкальных издателей является слишком широким и направлен на ограничение использования не только 500 репрезентативных произведений по делу, но и миллионов других, которые, как утверждают издатели, они контролируют.

Кроме того, стартап AI указал на место проведения в Теннесси и заявил, что иск был подан в неправильной юрисдикции. Anthropic утверждает, что не имеет деловых связей с Теннесси. Компания отметила, что ее штаб-квартира и основные операции находятся в Калифорнии.

Кроме того, Anthropic заявила, что ни одно из действий, предположительно нарушающих авторские права, упомянутых в иске, таких как обучение технологии искусственного интеллекта или предоставление ответов пользователям, не имело места в пределах границ Теннесси.

В документе указывается, что пользователи продуктов Anthropic согласились, что любые споры будут рассматриваться в судах Калифорнии.

Битва за авторские права в развивающейся индустрии генеративного искусственного интеллекта продолжает обостряться.

Все больше художников присоединились к искам против генераторов искусства, таких как Midjourney и OpenAI, с моделью DALL-E последнего, подкрепляя доказательства нарушения прав на реконструкции диффузионной модели.

Нью-Йорк Таймс недавно подала иск о нарушении авторских прав против OpenAI и Microsoft, утверждая, что они используют очищенные Таймс’ контент для обучения моделей для ChatGPT и других систем искусственного интеллекта нарушил авторские права. Иск требует возмещения ущерба на миллиарды долларов и требует, чтобы любые модели или данные, обученные на Время контент будет уничтожен.

На фоне этих дебатов некоммерческая группа под названием Fairly Trained на этой неделе выступила за сертификацию «лицензионной модели» для данных, используемых для обучения моделей искусственного интеллекта, — при поддержке Concord и Universal Music Group, среди прочих.

Платформы также вмешались: Anthropic, Google и OpenAI, а также контент-компании, такие как Shutterstock и Adobe, пообещали юридическую защиту корпоративных пользователей контента, созданного ИИ.

Однако создатели неустрашимы и борются с попытками отклонить иски таких авторов, как Сара Сильверман, против OpenAI. Судьям придется взвешивать технологический прогресс и законные права в тонких спорах.

Кроме того, регуляторы прислушиваются к опасениям по поводу масштабов добычи данных. Судебные иски и слушания в Конгрессе могут решить, допускает ли добросовестное использование приютов имущественные ассигнования, что разочаровывает одних и дает возможность другим. В целом переговоры кажутся неизбежными, чтобы удовлетворить всех участников по мере развития генеративного ИИ.

Что будет дальше, остается неясным, но документы, представленные на этой неделе, свидетельствуют о том, что компании, занимающиеся генеративным искусственным интеллектом, объединяются вокруг основного набора средств защиты, основанных на добросовестном использовании и причинении вреда, что заставляет суды сопоставлять технологический прогресс с контролем правообладателей.

Как ранее сообщало VentureBeat, ни один истец по авторским правам до сих пор не выиграл предварительный судебный запрет в таких спорах, связанных с ИИ. Аргументы Anthropic направлены на то, чтобы этот прецедент сохранялся, по крайней мере, на этом этапе одной из многих продолжающихся судебных баталий. Финал еще предстоит увидеть.

[ad_2]

Источник

banner

Вам может понравиться

Обзор сервисов ИИ

Искусственный интеллект

Daily AI

ИИ в жизни, бизнесе, науке и искусстве.

@2024 All Right Reserved. Designed and Developed by PenciDesign