banner

[ad_1]

Присоединяйтесь к лидерам предприятий Gen AI в Бостоне 27 марта, чтобы принять участие в эксклюзивном вечере общения, анализа и обсуждения вопросов целостности данных. Запросите приглашение здесь.


Если вы не заметили, быстрое развитие технологий искусственного интеллекта привело к появлению новой волны контента, создаваемого искусственным интеллектом, начиная от гиперреалистичных изображений и заканчивая захватывающими видео и текстами. Однако такое распространение открыло ящик Пандоры, высвободив поток потенциальной дезинформации и обмана, бросая вызов нашей способности отличать правду от выдумки.

Опасения, что мы погружаемся в синтетическое, конечно, не беспочвенны. С 2022 года пользователи ИИ совместно создали более 15 миллиардов изображений. Чтобы представить это гигантское число в перспективе, людям потребовалось 150 лет, чтобы создать такое же количество изображений до 2022 года.

Ошеломляющее количество контента, созданного искусственным интеллектом, имеет последствия, которые мы только начинаем обнаруживать. Из-за огромного объема генеративных изображений и контента, созданных ИИ, историкам придется рассматривать Интернет после 2023 года как нечто совершенно иное, чем то, что было раньше, подобно тому, как атомная бомба отбросила датировку с помощью радиоактивного углерода. Многие поисковые запросы по изображениям в Google уже дают результаты, основанные на искусственном интеллекте, и все чаще мы видим доказательства военных преступлений в конфликте между Израилем и Газой, которые осуждаются как искусственный интеллект, хотя на самом деле это не так.

Встраивание «подписей» в контент ИИ

Для непосвященных дипфейки — это, по сути, контрафактный контент, созданный с использованием алгоритмов машинного обучения (ML). Эти алгоритмы создают реалистичные кадры, имитируя человеческие выражения и голоса, а предварительный просмотр Sora в прошлом месяце — модели преобразования текста в видео OpenAI — еще раз показал, насколько быстро виртуальная реальность становится неотличимой от физической реальности.

Совершенно справедливо, что в упреждающей попытке взять ситуацию под контроль и на фоне растущей обеспокоенности технологические гиганты вступили в борьбу, предлагая решения, чтобы обозначить волну контента, генерируемого ИИ, в надежде взять ситуацию под контроль.

В начале февраля Meta объявила о новой инициативе по маркировке изображений, созданных с помощью инструментов искусственного интеллекта, на таких платформах, как Facebook, Instagram и Threads, с использованием видимых маркеров, невидимых водяных знаков и подробных метаданных, чтобы указать на их искусственное происхождение. Следом за ними Google и OpenAI представили аналогичные меры, направленные на встраивание «подписей» в контент, генерируемый их системами искусственного интеллекта.

Эти усилия поддерживаются интернет-протоколом с открытым исходным кодом The Coalition for Content Provenance and Authenticity (C2PA), группой, созданной Arm, BBC, Intel, Microsoft, Truepic и Adobe в 2021 году с целью иметь возможность отслеживать цифровые файлы. происхождения, различая подлинный и подтасованный контент.

Эти усилия являются попыткой повысить прозрачность и подотчетность в создании контента, что, конечно, является силой добра. Но хотя эти усилия преследуют благие намерения, не является ли это тем случаем, когда мы должны идти, прежде чем мы сможем бежать? Достаточно ли их, чтобы по-настоящему защититься от потенциального неправильного использования этой развивающейся технологии? Или это решение, которое приходит раньше времени?

Кто решает, что реально?

Я спрашиваю только потому, что после создания таких инструментов довольно быстро возникает проблема: может ли обнаружение быть универсальным, не предоставляя тем, у кого есть доступ, возможность его использовать? Если нет, то как мы можем предотвратить злоупотребление самой системой теми, кто ее контролирует? Мы снова возвращаемся к исходной точке и спрашиваем, кто будет решать, что реально? Это слон в комнате, и прежде чем ответить на этот вопрос, меня беспокоит то, что я буду не единственным, кто это заметит.

Барометр доверия Эдельмана в этом году продемонстрировал важные данные о доверии общества к технологиям и инновациям. В докладе подчеркивается широко распространенный скептицизм в отношении управления инновациями в учреждениях и показано, что люди во всем мире почти в два раза чаще считают, что инновации управляются плохо (39%), а не хорошо управляются (22%), при этом значительный процент выражает обеспокоенность по поводу быстрого темпы технологических изменений не приносят пользы обществу в целом.

В докладе подчеркивается распространенный скептицизм общественности по отношению к тому, как бизнес, неправительственные организации и правительства внедряют и регулируют новые технологии, а также обеспокоенность по поводу независимости науки от политики и финансовых интересов.

Несмотря на то, что технологии неоднократно показывают, что по мере того, как меры противодействия становятся более совершенными, растут и возможности проблем, с которыми им предстоит бороться (и наоборот, до бесконечности). Если мы хотим увидеть «водяные знаки», мы должны начать с того, чтобы обратить вспять недостаток доверия к инновациям со стороны широкой общественности.

Как мы видели, это легче сказать, чем сделать. В прошлом месяце Google Gemini подверглась критике за то, что она довела изображения до абсурда с помощью теневого запроса (метода, при котором модель ИИ принимает подсказку и изменяет ее в соответствии с определенной предвзятостью). Один сотрудник Google обратился к платформе X и заявил, что это был «самый смущенный» момент, который они когда-либо испытывали в компании, а склонность моделей не создавать изображения белых людей поставила это на передний план и в центр культурной войны. Последовали извинения, но ущерб был нанесен.

Разве технические директора не должны знать, какие модели данных используются?

Совсем недавно появилось видео, на котором технический директор OpenAI Мира Мурати дает интервью Вашингтон Пост стал вирусным. В ролике ее спрашивают о том, какие данные использовались для обучения Соры — Мурати отвечает «общедоступными данными и лицензионными данными». На дополнительный вопрос о том, какие именно данные были использованы, она признает, что на самом деле не уверена.

Учитывая огромную важность качества обучающих данных, можно предположить, что это основной вопрос, который должен знать технический директор при принятии решения о выделении ресурсов на видеопреобразователь. Ее последующее прекращение допроса (я мог бы добавить, что это было очень дружелюбное интервью) также вызывает тревогу. Единственные два разумных вывода из ролика: она либо невыразительный технический директор, либо лжец.

Конечно, по мере массового внедрения этой технологии подобных эпизодов будет еще много, но если мы хотим обратить вспять дефицит доверия, нам необходимо убедиться в наличии некоторых стандартов. Хорошим началом было бы просвещение общественности о том, что это за инструменты и зачем они нужны. Еще одним долгожданным дополнением будет последовательность в том, как маркируются вещи, с мерами, которые возлагают на отдельных лиц и организации ответственность за то, что что-то идет не так. Кроме того, когда что-то неизбежно идет не так, необходимо открыто говорить о том, почему это произошло. В целом, прозрачность в любых процессах имеет важное значение.

Я боюсь, что без таких мер водяные знаки будут служить не более чем пластырем, не способным решить основные проблемы дезинформации и подрыва доверия к синтетическому контенту. Вместо того, чтобы выступать в качестве надежного инструмента проверки подлинности, он может стать просто символическим жестом, который, скорее всего, будет обойден теми, кто намерен обмануть, или просто проигнорирован теми, кто предполагает, что их уже сделали.

Как мы увидим (а в некоторых местах уже наблюдаем), дипфейковое вмешательство в выборы, скорее всего, станет определяющей историей года в области искусственного интеллекта. Учитывая, что более половины населения мира идет на выборы, а общественное доверие к институтам по-прежнему находится на самом низком уровне, именно эту проблему мы должны решить, прежде чем мы сможем ожидать, что что-то вроде водяных знаков в контенте будет плавать, а не тонуть.

Эллиот Ливи — основатель ACQUAINTED, первой в Европе консалтинговой компании по генеративному искусственному интеллекту.

[ad_2]

Источник

banner

Вам может понравиться

Обзор сервисов ИИ

Искусственный интеллект

Daily AI

ИИ в жизни, бизнесе, науке и искусстве.

@2024 All Right Reserved. Designed and Developed by PenciDesign