[ad_1]
Присоединяйтесь к лидерам в Бостоне 27 марта на эксклюзивном вечере общения, идей и бесед. Запросите приглашение здесь.
Согласно новому документу, опубликованному 23 исследователями искусственного интеллекта, учеными и творческими людьми, правовая и техническая защита «безопасной гавани» необходима для того, чтобы позволить исследователям, журналистам и художникам проводить «добросовестную» оценку продуктов и услуг искусственного интеллекта.
Несмотря на необходимость независимой оценки, говорится в документе, проведение исследований, связанных с этими уязвимостями, часто юридически запрещено условиями обслуживания популярных моделей ИИ, в том числе моделей OpenAI, Google, Anthropic, Inflection, Meta и Midjourney. Авторы документа призвали технологические компании возместить ущерб исследованиям искусственного интеллекта, представляющим общественный интерес, и защитить их от приостановки аккаунтов или юридических репрессий.
«Хотя эти условия предназначены для сдерживания злоумышленников, они также непреднамеренно ограничивают исследования безопасности и надежности ИИ; компании запрещают исследования и могут обеспечить соблюдение своей политики путем блокировки учетных записей», — говорится в сообщении в блоге, сопровождающем статью.
Двое соавторов статьи, Шейн Лонгпре из MIT Media Lab и Саяш Капур из Принстонского университета, объяснили VentureBeat, что это особенно важно, когда, например, в недавней попытке отклонить некоторые части иска New York Times, OpenAI охарактеризовал оценку ChatGPT газетой Times как «хакерскую». Главный юрисконсульт The Times ответил: «То, что OpenAI ошибочно называет «хакерством», — это просто использование продуктов OpenAI для поиска доказательств того, что они украли и воспроизвели работы Times, защищенные авторским правом».
Лонгпре сказал, что идея «безопасной гавани» была впервые предложена Институтом Первой поправки Найта для исследования платформ социальных сетей в 2022 году. «Они попросили платформы социальных сетей не запрещать журналистам пытаться расследовать вред социальных сетей, а затем то же самое касается и защиты исследователей», — сказал он, отметив, что уже была история, когда академикам и журналистам предъявляли иски или даже проводили время в тюрьме, поскольку они боролись за выявление слабых мест в платформах.
«Мы пытались извлечь как можно больше из этой прошлой попытки предложить безопасную гавань для исследований ИИ», — сказал он. «Благодаря ИИ у нас по сути нет информации о том, как люди используют эти системы, какой вред при этом происходит, и один из единственных инструментов, которые у нас есть, — это исследовательский доступ к этим платформам».
Независимая оценка и «красная команда» имеют решающее значение
В документе «Безопасная гавань для оценки ИИ и Red Teaming» говорится, что, насколько известно авторам, «приостановка учетных записей в ходе исследования общественных интересов» имела место в таких компаниях, как OpenAI, Anthropic, Inflection и Midjourney. будучи самым плодовитым». Они цитировали художника Рид Саутен, который указан в качестве одного из соавторов статьи и чья учетная запись Midjourney была заблокирована после того, как он поделился изображениями Midjourney, которые казались почти идентичными оригинальным версиям, защищенным авторским правом. Его расследование показало, что Midjourney может нарушать авторские права владельца без явного намерения пользователя с помощью простых подсказок.
«Midjourney уже трижды забанил меня за личные расходы, приближающиеся к 300 долларам», — сообщил Саутен VentureBeat по электронной почте. « первый бан произошло в течение 8 часов после моего расследования и публикации результатов, и вскоре после этого они обновили свои Условия обслуживания, не проинформировав своих пользователей, чтобы они переложили вину за любые изображения, нарушающие авторские права, на конечного пользователя».
Тип модельного поведения, который он обнаружил, продолжил он, «именно поэтому следует разрешить независимую оценку и красные команды, потому что (компании) показали, что они не будут делать это сами, в ущерб правообладателям во всем мире».
Прозрачность – это ключ к успеху
В конечном счете, сказал Лонгпре, проблемы, связанные с защитой безопасных гаваней, связаны с прозрачностью.
«Имеют ли независимые исследователи право, если они могут доказать, что они не причиняют никакого злоупотребления или вреда, исследовать возможности и/или недостатки продукта?» он сказал. Но он добавил, что в целом «мы хотим дать понять, что хотим работать с компаниями, потому что мы считаем, что есть также путь, по которому они могут быть более прозрачными и использовать сообщество в своих интересах, чтобы помочь найти эти недостатки». и улучшить их».
Капур добавил, что у компаний могут быть веские причины запретить некоторые виды использования их услуг. Однако это не должна быть универсальная политика, «с одинаковыми условиями обслуживания независимо от того, являетесь ли вы злонамеренным пользователем или исследователем, проводящим критически важные для безопасности исследования», — сказал он.
Капур также сообщил, что авторы статьи вели переговоры с некоторыми компаниями, условия использования которых являются предметом спора. «Большинство из них только что рассмотрели это предложение, но наш подход заключался в том, чтобы начать этот диалог с компаниями», — сказал он. «На данный момент большинство людей, с которыми мы связались, были готовы начать этот разговор с нами, хотя на данный момент я не думаю, что у нас есть какие-либо твердые обязательства со стороны каких-либо компаний по введению «безопасной гавани»», хотя он отметил, что после того, как OpenAI прочитала первый вариант документа, они изменили формулировку своих условий обслуживания, чтобы учесть определенные типы безопасной гавани.
«Таким образом, в некоторой степени это дало нам сигнал о том, что компании, возможно, действительно захотят пройти часть пути вместе с нами», — сказал он.
[ad_2]
Источник