banner

[ad_1]

Лидеры мнений: кто защитит нас от искусственно созданной дезинформации? Генеративный искусственный интеллект (ИИ) взлетел с нуля до ста менее чем за год. Хотя это только начало, его потенциал для трансформации бизнеса уже не вызывает сомнений. Однако вопрос о том, как сдержать возникающие опасности, вызывает разногласия. Я являюсь сторонником инноваций и отнюдь не склонен к панике. Но недавний всплеск дезинформации, в основном направленный на поляризацию вокруг спорных вопросов сегодняшнего дня, показывает, что без должного контроля генеративный ИИ может нанести серьезный ущерб обществам. Мы уже сталкивались с подобным в случае социальных сетей, но на осознание их недостатков у нас ушли годы и множество трудных уроков. Сегодняшний вопрос звучит так: кто поможет предотвратить искажение реальности со стороны генеративного ИИ и каким образом? Как и ожидалось, правительства начинают действовать. Европа лидирует в этом вопросе, как и в регулировании технологий в целом. США не отстают, и президент Байден в прошлом октябре подписал соответствующий исполнительный приказ. Но для “честности” генеративного ИИ потребуется совместная работа всего мирового сообщества. И прежде чем правительства смогут оказать помощь, им необходимо понять ограничения существующих подходов.

Проблема идентификации усугубляется в этом новом мире, где правда становится иголкой в стоге сена мнений, выдаваемых за факты. Теперь, как никогда, важно знать, откуда исходит контент.

И это не так просто, как могло бы показаться, если бы каждый аккаунт в социальных сетях требовал подтверждения личности. Существует сильное сопротивление этому, и в некоторых случаях анонимность необходима для защиты владельцев аккаунтов. Более того, многие потребители наиболее вредоносного контента не заботятся о его достоверности или источнике.

Тем не менее, потенциальная роль идентификации в борьбе с генеративным ИИ недооценена. Скептики, прислушайтесь. Представим, что регулирование или социальная совесть побудят платформы предоставить каждому владельцу аккаунта следующий выбор:

  1. Подтвердить свою личность или нет.
  2. Публично раскрыть свою подтвержденную личность или просто получить метку «Личность подтверждена».

Тогда аудитория социальных сетей сможет лучше решить, кому можно доверять. Это важно не только для поддержки ответственности. Платформы могут решать, какие меры принимать против серийных «дезинформаторов» и повторных злоупотребителей контентом, созданным с помощью ИИ, даже если они появляются под разными именами аккаунтов.

С учетом повышенных рисков, связанных с генеративным ИИ, я убежден, что идентификация — знание того, кто именно что опубликовал — критически важна. Некоторые будут против, и идентификация не является исчерпывающим ответом. На самом деле ни одно решение не удовлетворит всех заинтересованных сторон. Но если регулирование обяжет платформы предложить верификацию личности для всех аккаунтов, я убежден, что это окажет огромное положительное влияние.

Проблема модерации контента — как автоматизированной, так и осуществляемой человеком — является последней линией защиты от нежелательного контента. Модерация человеком — тяжелая работа с риском психологического вреда из-за воздействия худших проявлений человечности. Это также дорого и часто обвиняется в предвзятой цензуре, от которой платформы стараются отказаться.

Автоматизированная модерация позволяет обрабатывать больше контента, чем это возможно для человека, но она не способна понимать контекст (например, мемы) и культурные нюансы. Обе формы модерации крайне важны и необходимы, но они лишь часть ответа.

Часто слышимое традиционное предложение по контролю за генеративным ИИ звучит так: «Необходимо сотрудничество между лидерами технологий, правительством и гражданским обществом». Хорошо, но что конкретно?

Правительства могут подтолкнуть социальные и медиа платформы к предложению верификации личности и к ее выдающемуся отображению во всех публикациях. Регуляторы также могут проложить путь к метрикам достоверности, которые действительно помогут оценить, насколько источник вероятен. Сотрудничество необходимо для разработки универсальных стандартов, которые дадут конкретные рекомендации и направления, чтобы частный сектор не оставался в неведении.

И наконец, должно ли быть незаконным создание вредоносного ИИ-контента? Законодательство, запрещающее контент, предназначенный для незаконной деятельности, могло бы снизить объем токсичного контента и облегчить задачу модераторов. Я не считаю, что регулирование и законы способны победить дезинформацию, но они жизненно необходимы для противостояния угрозе.

Светлая сторона вопроса: инновации. Обещание инноваций делает меня оптимистом в этом вопросе. Мы не можем ожидать, что политики или владельцы платформ полностью защитят от искусственно созданного обмана. Они оставляют большой пробел, и именно это станет стимулом для изобретения новых технологий для аутентификации контента и обнаружения фальсификаций.

Теперь, когда мы знаем недостатки социальных сетей, мы быстро осознали, что генеративный ИИ может оказаться огромным минусом для человечества с его способностью поляризовать и вводить в заблуждение.

Оптимистически настроен, я вижу преимущества многопрофильных подходов, где методы контроля работают вместе, сначала на источнике, ограничивая создание контента, предназначенного для незаконного использования. Затем, перед публикацией, верифицируя личность тех, кто отказывается от анонимности. Далее, четкое маркирование для показа рейтингов достоверности и личности публикатора или его отсутствия. И наконец, автоматизированная и человеческая модерация могут отфильтровывать некоторые из худших проявлений. Я ожидаю, что новые технологии аутентификации скоро появятся в обиходе.

Суммируя все выше сказанное, мы получим гораздо лучшее, хотя и никогда не идеальное, решение. Тем временем мы должны развивать наши навыки, чтобы понимать, что является реальностью, кто говорит правду и кто пытается нас обмануть.

[ad_2]

Источник

banner

Вам может понравиться

Обзор сервисов ИИ

Искусственный интеллект

Daily AI

ИИ в жизни, бизнесе, науке и искусстве.

@2024 All Right Reserved. Designed and Developed by PenciDesign