[ad_1]
Он уже здесь: через несколько месяцев после первого анонса Nightshade, новый бесплатный программный инструмент, позволяющий художникам «отравлять» модели искусственного интеллекта, желающие обучаться своим работам, теперь доступен художникам для загрузки и использования в любых произведениях искусства, которые они считают подходящими.
Этот инструмент, разработанный учеными-компьютерщиками в рамках проекта Glaze в Чикагском университете под руководством профессора Бена Чжао, по существу работает, направляя ИИ против ИИ. Он использует популярную платформу машинного обучения с открытым исходным кодом PyTorch, чтобы определить, что находится на данном изображении, а затем применяет тег, который слегка изменяет изображение на уровне пикселей, поэтому другие программы искусственного интеллекта видят нечто совершенно иное, чем то, что есть на самом деле.
Это второй подобный инструмент от команды: почти год назад команда представила Glaze, отдельную программу, предназначенную для изменения цифровых изображений по указанию пользователя, чтобы сбить с толку алгоритмы обучения ИИ, заставив их думать, что изображение имеет другой стиль, чем то, что есть на самом деле ( например, разные цвета и мазки кисти, чем есть на самом деле).
Но в то время как команда из Чикаго разработала Glaze как защитный инструмент и по-прежнему рекомендует художникам использовать его в дополнение к Nightshade, чтобы предотвратить имитацию стиля художника моделями ИИ, Nightshade задуман как «наступательный инструмент».
Модель ИИ, которая в конечном итоге обучалась на многих изображениях, измененных или «затененных» с помощью Nightshade, скорее всего, будет ошибочно классифицировать объекты в дальнейшем для всех пользователей этой модели, даже в изображениях, которые не были затенены с помощью Nightshade.
«Например, человеческие глаза могут видеть заштрихованный Изображение коровы на зеленом поле практически не изменилось, но модель ИИ может увидеть большую кожаную сумку, лежащую в траве», — поясняет команда.
Таким образом, модель ИИ, обученная на изображениях коровы, затененных так, чтобы выглядеть как кошелек, начала генерировать кошельки вместо коров, даже когда пользователь просил модель сделать изображение коровы.
Требования и принцип работы Nightshade
Художники, желающие использовать Nightshade, должны иметь Mac с чипами Apple внутри (M1, M2 или M3) или ПК под управлением Windows 10 или 11. Инструмент можно загрузить для обеих ОС здесь. Файл Windows также может работать на графическом процессоре ПК, если в этом списке поддерживаемого оборудования он принадлежит Nvidia.
Некоторые пользователи также сообщают о длительном времени загрузки из-за огромного спроса на этот инструмент — в некоторых случаях до восьми часов (размер двух версий — 255 МБ и 2,6 ГБ для Mac и ПК соответственно.
Пользователи также должны согласиться с лицензионным соглашением с конечным пользователем (EULA) команды Glaze/Nightshade, которое предусматривает, что они используют инструмент на машинах, находящихся под их контролем, и не изменяют исходный код, а также «воспроизводят, копируют, распространяют, перепродают или иным образом использовать Программное обеспечение в любых коммерческих целях».
Nightshade v1.0 «преобразует изображения в «ядовитые» образцы, так что (ИИ) модели, обучающиеся на них без согласия, увидят, как их модели учатся непредсказуемому поведению, которое отклоняется от ожидаемых норм, например, подсказка, которая запрашивает изображение летящей коровы. вместо этого space может получить изображение сумочки, плавающей в космосе», — говорится в сообщении команды разработчиков на ее веб-сайте.
То есть, используя Nightshade v 1.0 для «затенения» изображения, изображение будет преобразовано в новую версию благодаря библиотекам искусственного интеллекта с открытым исходным кодом — в идеале достаточно тонко, чтобы оно не сильно отличалось для человеческого глаза, но что он, по-видимому, содержит совершенно разные темы любым моделям ИИ, обучающимся на нем.
Кроме того, этот инструмент устойчив к большинству типичных преобразований и изменений, которые пользователь или зритель может внести в изображение. Как объясняет команда:
«Вы можете обрезать его, выполнить повторную выборку, сжать, сгладить пиксели или добавить шум, и эффекты яда останутся. Вы можете делать снимки экрана или даже фотографии изображения, отображаемого на мониторе, при этом эффекты тени сохранятся. Опять же, это потому, что это не водяной знак или скрытое сообщение (стеганография), и он не хрупкий».
Аплодисменты и осуждение
В то время как некоторые художники поспешили загрузить Nightshade v1.0 и уже используют ее — среди них Келли МакКернан, одна из бывших ведущих истцов-художников в продолжающемся групповом иске о нарушении авторских прав против компаний Midjourney, занимающихся созданием искусственного интеллекта и видео, DeviantArt, Runway и Stability AI — некоторые интернет-пользователи жаловались на это, предполагая, что это равносильно кибератаке на модели и компании искусственного интеллекта. (VentureBeat использует Midjourney и другие генераторы изображений AI для создания оформления заголовка статьи.)
Команда Glaze/Nightshade, со своей стороны, отрицает, что преследует деструктивные цели, написав: «Цель Nightshade — не сломать модели, а увеличить стоимость обучения на нелицензионных данных, чтобы лицензирование изображений от их создателей стало жизнеспособной альтернативой. ».
Другими словами, создатели стремятся сделать так, чтобы разработчики моделей ИИ должны были платить художникам за обучение на их неповрежденных данных.
Последний фронт в быстро развивающейся борьбе за очистку данных
Как мы здесь оказались? Все сводится к тому, как обучались генераторы изображений ИИ: путем сбора данных со всего Интернета, в том числе извлечения оригинальных произведений искусства, опубликованных художниками, которые не имели ни предварительных знаний, ни полномочий принятия решений по поводу этой практики, и говорят, что полученные в результате модели ИИ были обучены. на их работах ставит под угрозу их средства к существованию, конкурируя с ними.
Как сообщает VentureBeat, сбор данных предполагает, что простые программы, называемые «ботами», просматривают Интернет, копируют и преобразовывают данные с общедоступных веб-сайтов в другие форматы, которые полезны для человека или организации, выполняющих сбор данных.
Это была обычная практика в Интернете, которая часто использовалась до появления генеративного искусственного интеллекта. Это примерно тот же метод, который использовался Google и Bing для сканирования и индексации веб-сайтов в результатах поиска.
Но он оказался под новым пристальным вниманием со стороны художников, авторов и творческих людей, которые возражают против использования их работ без их явного разрешения для обучения коммерческих моделей ИИ, которые могут конкурировать с их рабочим продуктом или заменить его.
Создатели моделей ИИ защищают эту практику не только как необходимую для обучения своих творений, но и как законную в рамках «добросовестного использования» — правовой доктрины в США, согласно которой предыдущая работа может быть использована в новой работе, если она будет преобразована и использована для новой цели. .
Хотя компании, занимающиеся искусственным интеллектом, такие как OpenAI, ввели код отказа, который возражающие могут добавить на свои веб-сайты, чтобы их не использовали для обучения ИИ, команда Glaze/Nightshade отмечает, что «в прошлом тренеры моделей игнорировали списки отказа». , и его можно легко игнорировать без каких-либо последствий. Они не поддаются проверке и не подлежат исполнению, а те, кто нарушает списки отказа и директивы о запрете очистки, не могут быть идентифицированы с высокой степенью достоверности».
Таким образом, Nightshade был задуман и разработан как инструмент для «решения этой асимметрии власти».
Далее команда объясняет свою конечную цель:
«При ответственном использовании Nightshade может помочь сдержать тренеров моделей, которые игнорируют авторские права, списки отказа и директивы do-not-scrape/robots.txt. Он не полагается на доброту тренеров моделей, а вместо этого устанавливает небольшую дополнительную плату за каждый фрагмент данных, собранный и обученный без разрешения».
По сути: сделать широкомасштабный сбор данных более дорогостоящим для разработчиков моделей ИИ и заставить их дважды подумать, прежде чем делать это, и тем самым заставить их рассмотреть заключение лицензионных соглашений с людьми-художниками как более жизнеспособную альтернативу.
Конечно, Nightshade не способен повернуть вспять ход времени: любые произведения искусства, очищенные до того, как они были затенены инструментом, по-прежнему использовались для обучения моделей ИИ, и их затенение сейчас может повлиять на эффективность модели в будущем, но только если эти изображения перезаписано и снова использовано для обучения обновленной версии модели генератора изображений ИИ.
На техническом уровне также нет ничего, что могло бы помешать кому-либо использовать Nightshade для затенения произведений искусства, созданных искусственным интеллектом, или произведений искусства, которые они не создавали, что открывает дверь для потенциальных злоупотреблений.
[ad_2]
Источник