[ad_1]
ИИ все чаще используется для представления или искажения мнений исторических и нынешних деятелей. Недавний пример: голос президента Байдена был клонирован и использован при звонке роботов избирателям Нью-Гэмпшира. Если сделать еще один шаг вперед, учитывая развивающиеся возможности ИИ, то вскоре станет возможной символическая «кандидатура» персоны, созданной ИИ. Это может показаться диковинным, но технология создания такого политического субъекта с искусственным интеллектом уже существует.
Есть много примеров, указывающих на такую возможность. Технологии, которые обеспечивают интерактивный и захватывающий процесс обучения, воплощают в жизнь исторические фигуры и концепции. При ответственном использовании они могут не только развеять загадку прошлого, но и вдохновить граждан на более информированное и активное участие.
Сегодня люди могут взаимодействовать с чат-ботами, отражающими точки зрения самых разных деятелей, от Марка Аврелия до Мартина Лютера Кинга-младшего, используя приложение «Hello History», или Джорджа Вашингтона и Альберта Эйнштейна через «Текст с историей». Эти приложения утверждают, что помогают людям лучше понять исторические события или «просто весело провести время, общаясь с любимыми историческими персонажами».
Точно так же выставка Винсента Ван Гога в Музее Орсе в Париже включает цифровую версию художника и предлагает зрителям возможность взаимодействовать с его личностью. Посетители могут задавать вопросы, а чат-бот Винсента отвечает на них на основе обучающего набора данных, состоящего из более чем 800 его писем. Форбс обсуждает другие примеры, в том числе интерактивный опыт в музее Второй мировой войны, который позволяет посетителям общаться с ИИ-версиями ветеранов войны.
Тревожный рост дипфейков
Конечно, эту технологию можно также использовать для клонирования как исторических, так и нынешних общественных деятелей с другими целями и способами, вызывающими этические проблемы. Я имею в виду здесь дипфейки, которые все больше распространяются, что затрудняет отделение реальности от фейка и правды от лжи, как это было отмечено в примере с клоном Байдена.
Технология Deepfake использует искусственный интеллект для создания или манипулирования неподвижными изображениями, видео- и аудиоконтентом, что позволяет убедительно менять лица, синтезировать речь, создавать или изменять действия в видеороликах. Эта технология смешивает и редактирует данные реальных изображений и видео для создания реалистично выглядящих и звучащих произведений, которые становится все труднее отличить от подлинного контента.
Хотя эти технологии имеют законное применение в образовательных и развлекательных целях, они все чаще используются в менее оптимистичных целях. Существует множество опасений по поводу возможности создания дипфейков, созданных искусственным интеллектом, которые выдают себя за известных личностей, чтобы манипулировать общественным мнением и потенциально изменить выборы.
Рост политических дипфейков
Только в этом месяце появились истории об использовании ИИ в таких целях. Имран Хан, бывший премьер-министр Пакистана, эффективно проводил предвыборную кампанию, находясь в тюрьме, используя речи, созданные с помощью искусственного интеллекта для клонирования его голоса. Это было эффективно, поскольку партия Хана показала удивительно хорошие результаты на недавних выборах.
Как написано в Нью-Йорк Таймс: «Я был полностью уверен, что вы все выйдете голосовать. Вы оправдали мою веру в вас, и ваша массовая явка ошеломила всех», — сказал мягкий, слегка роботизированный голос в минутном видео, в котором использовались исторические изображения и кадры г-на Хана и содержалась оговорка об его искусственном происхождении».
Это был не единственный пример за последнее время. Политическая партия в Индонезии создала созданное искусственным интеллектом фейковое видео бывшего президента Сухарто, скончавшегося в 2008 году. В видео фейковый Сухарто призывает людей голосовать за бывшего армейского генерала, который был частью его режима, поддерживаемого военными. Как сообщил CNN, это видео, выпущенное всего за несколько недель до выборов, было призвано повлиять на избирателей. И это произошло, получив 5 миллионов просмотров. Бывший генерал выиграл выборы.
Аналогичная тактика используется в Индии. Aljazeera сообщила, что икона кино и политики М. Карунаниди недавно предстала перед живой аудиторией на большом проекционном экране. Карунаниди произнес речь, в которой он «горячо восхвалял умелое руководство депутата Кнессета Сталина, его сына и нынешнего лидера государства». Карунаниди умер в 2018 году, однако это был третий раз за последние шесть месяцев, когда он «появлялся» через ИИ на подобных публичных мероприятиях.
Теперь стало ясно, что эра дипфейков на базе искусственного интеллекта в политике, которой впервые опасались несколько лет назад, полностью наступила.
Воображая появление «искусственных» политических кандидатов
Техники, подобные тем, которые используются в технологии дипфейков, создают очень реалистичные и интерактивные цифровые изображения вымышленных или реальных персонажей. Эти разработки позволяют технологически моделировать разговоры с историческими личностями или создавать реалистичных цифровых персонажей на основе их публичных записей, речей и сочинений.
Одно из возможных новых применений заключается в том, что кто-то (или какая-то группа) выдвинет созданную с помощью ИИ цифровую личность на государственную должность. В частности, чат-бот, поддерживаемый изображениями, аудио и видео, созданными ИИ. «Необычно», скажете вы? Конечно. Нелепый? Вполне возможно. Правдоподобно? Полностью. В конце концов, они уже служат терапевтами, парнями и подругами.
На пути к этой идее есть несколько препятствий, не последним из которых является то, что добросовестный кандидат в Конгресс или даже в местный городской совет должен быть реальным человеком. Таким образом, чат-бот не может ни зарегистрироваться в качестве кандидата, ни зарегистрироваться для голосования.
Однако что, если кампания по регистрации привела бы к тому, что цифровой чат-бот получил больше голосов, чем любой кандидат в бюллетене? Это кажется неправдоподобным, но это возможно. Поскольку это чисто гипотетически, мы можем разыграть воображаемый сценарий.
Есть молоко?
Для обсуждения предположим, что «Милкбот» является зарегистрированным кандидатом на будущих выборах мэра Сан-Франциско. Milkbot использует модель большого языка (LLM) с открытым исходным кодом, которая обучена на сочинениях, выступлениях, видео и публикациях в социальных сетях Харви Милка, покойного бывшего члена Наблюдательного совета Сан-Франциско. Набор данных может быть дополнительно дополнен контентом от тех, кто имел или имеет схожие точки зрения.
Milkbot может произносить речи, которые его промоутеры помогают формировать, создавать видео и аудио, генерируемые искусственным интеллектом, и публиковать их на различных социальных платформах. Milkbot также способен «отвечать» на вопросы публики, как Винсент Ван Гог, а по мере роста его популярности отвечать на вопросы прессы. Из-за новизны или из-за того, что ни один реальный кандидат не привлек внимание общественности на выборах, усилия Милкбота на посту мэра набирают обороты.
Затем бот получает больше голосов в ходе избирательной кампании, чем любой кандидат в бюллетенях. Возможно, что голосование является символическим, эквивалентным «ничего из вышеперечисленного», но вполне возможно, что результат будет именно тем, чего хотела голосующая публика. Что произойдет потом?
Скорее всего, избирательные органы просто сочтут результат недопустимым, и победителем будет назван кандидат-человек, набравший наибольшее количество голосов. Однако этот результат может также привести к юридическому переопределению того, что представляет собой кандидат или победитель политической борьбы. Конечно, возникнут вопросы о представительстве, подотчетности и возможности манипулирования или неправильного использования ИИ в политических процессах. Конечно, подобные вопросы уже существуют в реальном мире.
Станут ли цифровые персонажи формой социального или политического комментария?
По крайней мере, возможность использования цифрового образа в символической кампании может появиться как форма социального или политического комментария. Эти боты могут освещать такие проблемы, как неудовлетворенность текущими политическими вариантами, стремление к реформам, исследование футуристических концепций управления и побуждать к дискуссиям о роли технологий в обществе, природе демократии и о том, как люди должны взаимодействовать с ИИ.
Эта возможность откроет еще одну этическую дискуссию. Например, будет ли «кандидат» с цифровой подписью мерзостью или, если он соберет поддержку, будет ли это дизайнерской демократией, где кандидат может продвигать определенную политику и черты характера?
Представьте себе цифровую личность, выдвинутую на еще более высокий пост, потенциально на федеральном уровне. Когда роботизированная революция придет к политикам, мы можем надеяться, что машины обучены честности.
Гэри Гроссман — исполнительный вице-президент технологического направления Edelman и глобальный руководитель Центра передового опыта Edelman в области искусственного интеллекта.
[ad_2]
Источник