banner

[ad_1]

Каковы возможности и последствия применения искусственного интеллекта в медиаиндустрии? Как ИИ-технологии влияют на общество и какие у них перспективы? Эти и другие вопросы обсудили участники круглого стола «Искусственный интеллект в аудиовизуальных медиа». Он состоялся в гибридном формате 5 октября в рамках VI Международной научной конференции «Актуальные проблемы экранных и интерактивных медиа» к 15-летию Высшей школы (факультета) телевидения МГУ им. М.В. Ломоносова. Модератором круглого стола выступила кандидат филологических наук, доцент и преподаватель факультета Елена Занина.

На российском телевидении уже используют виртуальных телеведущих и чат-ботов. Так, Дарья Неренц, кандидат филологических наук, доцент кафедры журналистики Российского государственного гуманитарного университета, привела несколько актуальных примеров.

Первый из них — прогноз погоды от ИИ, запущенный в марте этого года на телеканале «360». Бот Максим воспроизводит сгенерированные искусственным интеллектом метеорологические данные, а ведущая тем временем озвучивает свой прогноз. Команда метеорологов соревнуется с системой ИИ — кто сделает прогноз погоды точнее, а итог подводится потом в прямом эфире.

Второй пример — цифровая телеведущая Снежана Туманова на ставропольском телеканале «Свое ТВ». Девушка была создана с помощью трех нейросетей, которые генерируют отдельно ее облик, текст и графическое сопровождение.

Виртуальная ведущая Снежана Туманова

А на вечернее ток-шоу красноярского телеканала «Прима» в качестве третьего соведущего была приглашена виртуальная телеведущая Дарья для обзора новостей. В прямом эфире канал провел голосование среди зрителей, которое показало, что большинство смотрящих программу все же предпочитает реальных телеведущих.

По мнению Дарьи Неренц, в медиа применение ИИ на современном этапе вызывает у журналистов и других представителей индустрии неоднозначную реакцию. Российские телеканалы вводят определенные рубрики с участием систем ИИ, но, скорее, в формате эксперимента на волне популярности ИИ-технологий. По результатам опроса, проведенного спикером среди студентов, отношение к работе ИИ в качестве телеведущего в целом критическое, порой даже негативное.

«Во многом это связано с тем, что перспектива виртуального ведущего станет следствием потери работы и невозможности исполнить свою профессиональную мечту», — объяснила Дарья Неренц. К этому добавляется низкий уровень доверия к машине и отсутствие у нее эмоций, а многие опрошенные отметили также эффект «зловещей долины».

Участники круглого стола в свою очередь пошутили: пока у искусственного интеллекта нет эмпатии, его можно сравнить с психопатом.

Когда мы говорим о виртуальных телеведущих, нельзя забывать об их эмоциональной составляющей. В сфере ИИ целое направление связано с эмоциями: чтобы роботы, с одной стороны, обладали эмоциями и выражали их, а с другой — понимали наши эмоции и реагировали на них. По мнению Бориса Кобринского, доктора медицинских наук, профессора, председателя Научного совета Российской ассоциации искусственного интеллекта, действительного члена РАЕН, эмоциональная сторона виртуальных телеведущих улучшится, но только тех, кто рассказывает новости, а не формулирует самостоятельно какие-то естественные высказывания.

«ИИ не может создать новое, он может улучшить, даже значительно, что-то в науке и, без сомнения, в медиасфере. Там он найдет свои ниши. Речь именно о нишах, а не замене того, к чему мы привыкли, и что должно существовать», — полагает профессор.

«Вообще считается, что основная неприятность от развития искусственного интеллекта — это безработица. Но предприниматель Азим Ажар, например, в своей книге говорит, что самая большая опасность — это ухудшение положения работающих и тотальная слежка за их коммуникациями», — подчеркнула Татьяна Каминская, доктор филологических наук, доцент Департамента массовых коммуникаций и медиабизнеса Финансового университета при Правительстве РФ.

В книге «Экспонента. Как быстрое развитие технологий меняет бизнес, политику и общество» Ажар приводит статистику, согласно которой половина всех крупных компаний отслеживает содержание электронной переписки сотрудников, а также их аккаунтов в социальных сетях.

Автор обосновал развитие технологий по экспоненте, а не линейным способом. И в результате все политические системы рухнут. По мнению Ажара, технологии не нейтральны и вовсе не являются инструментами для удобства людей, они воспроизводят ту расстановку сил, которая есть в обществе.

Татьяна Каминская в своем выступлении озвучила также другие опасения и прогнозы, связанные с применением искусственного интеллекта.

Неодобрительное отношение к участию ИИ в контексте экранных медиа высказал Виталий Третьяков, декан Высшей школы телевидения МГУ. По его мнению, главный минус ИИ — отсутствие индивидуальности, своего рода уникальности. Нейросети никогда не смогут создать великих произведений искусства, по сравнению с человеком. Но декан согласен с тем, что системы ИИ могут помогать в вычислениях (суперкомпьютеры), медицине. Творческие же профессии должны оставаться за человеком, чтобы не уничтожить его способности и талант.

Иначе относится к ИИ Дмитрий Отяковский, куратор Лаборатории исследования цифровой оперы. На практике он убедился, что ИИ помогает перерождению оперного искусства. Хотя как такового искусственного интеллекта пока не существует, доступные сегодня технологии машинного обучения — это инструменты, наподобие пера, фортепиано или фотошопа, благодаря которым люди могут выражать себя в искусстве или технических областях. ИИ — это новый этап развития технологий, своего рода «цифровой ренессанс».

Лаборатория уже использовала искусственный интеллект в десятке проектов, о двух из них Дмитрий рассказал в рамках своего выступления. В частности, об опере «Глоссарий 2.0», представленной в Эрмитажном театре в рамках конкурса Digital opera performace. В этом спектакле, поднимающем вопросы цифровой этики, главным персонажем и главным исполнителем стал google-переводчик. А либретто к опере написала нейросеть GPT-2.

Другой проект — «Сон разума рождает неантропоморфных кибербогомолов». Его премьера состоялась в креативном кластере «Октава» в Туле. Это видеоинсталляция, которая включает в себя перформативную часть, аудиовизуальную и нейросетевую. Проект посвящен состоянию сонного паралича. Нейросеть сгенерировала графику на основе звуковых файлов, записанных на улицах Тулы: звук в бинарном коде был загружен в Midjourney – и система выдала ряд тревожных картинок, которые создавали законченное произведение.

Алена Евдокимова, студентка Гуманитарного института Северо-Кавказского федерального университета (кафедра рекламы и связей с общественностью), считает, что нейросети могут стать помощником PR-специалиста.

Во-первых, нейросеть способна проанализировать информацию на сайтах, изучить упоминания компании, собрать данные о клиентах. Во-вторых, ИИ можно применять при подготовке текстов. Например, чтобы добавить пресс-релизу новизны, интересных деталей за счет анализа огромной базы данных. Разумеется, идеи и концепции нейросетей должен оценить специалист, прежде чем их использовать.

«Нейросеть — это совсем другой язык общения. Чтобы правильно разговаривать с ней, нужно этот язык изучить и научиться создавать промт, словесный запрос для нейросети», — добавила Алена Евдокимова.

Чтобы сформулировать корректный промт, нужно время, отметила Наталья Травова, основатель и главный редактор онлайн-журнала Let AI be. Это одна из причин, по которой СМИ, например, на регулярной основе не генерируют с помощью ИИ иллюстрации для публикаций. У редакций есть проверенная альтернатива — изображения легко и быстро можно подобрать в фотобанках.

Рассказывая о способах применения искусственного интеллекта в СМИ, Наталья Травова подчеркнула, что они не ограничиваются популярными сегодня нейросетями для создания контента: визуального, аудио или текстового. В сфере медиа технологии машинного обучения задействованы в рекомендательных системах на сайтах, анализе трендов и популярных тем, сборе данных для журналистских расследований, фильтрации и блокировке комментариев, фактчекинге, а также во множестве полезных прикладных инструментов, например для генерации автоматических субтитров, озвучки роликов, перевода текста, расшифровки аудиозаписи, улучшения качества фото и так далее.

Что любопытно, сами сотрудники СМИ, согласно глобальному опросу Statista, считают наиболее важными автоматические рекомендации — 40% респондентов. А вот на роботизированную журналистику делают ставку всего 10%.

Наталья Травова также считает, что представителям сферы медиа не стоит упускать из виду проблемы, связанные с популяризацией ИИ. Среди них — неэтичное использование редакциями ИИ-технологий, примером которого может быть вымышленное интервью с Шумахером; введение читателя в заблуждение из-за распространения дипфейков и недостоверной информации, генерируемой чат-ботами; проблема с авторскими правами и так далее. Кроме того, разработчики ИИ-систем, в том числе больших языковых моделей, неправомерно используют контент СМИ для обучения нейросетей.

Якобы арест бывшего президента США Дональда Трампа. Распространившееся в Сети изображение создано Midjourney

Преподаватель кафедры предпринимательского права Уральского государственного юридического университета им. В.Ф. Яковлева, директор лаборатории цифрового права TechLawLab, член экспертного совета по развитию цифровой экономики, технологий и инноваций Молодежного парламента Государственной думы ФС РФ Мария Болобонова поделилась своим мнением о законодательном регулировании сферы искусственного интеллекта. Юристы рассматривают генеративные модели как код, совокупность алгоритмов, работа которых зависит от датасетов, загруженных в систему ИИ для ее обучения.

Здесь встает ключевой вопрос о качестве информации, предоставленной алгоритмам. В этом случае ИИ является объектом правового поля. В вопросе признания ИИ субъектом, способным самостоятельно принимать решения и нести ответственность, мнения юристов до сих пор расходятся.

«Но все-таки в сухом остатке есть разработчик, есть автор, есть субъект, который ставит цель и задачи системе искусственного интеллекта — исходя из них, а также данных для обучения, мы и приходим к вопросам ответственности: кто будет нести бремя ошибок и неточностей ИИ», — подчеркнула эксперт.

Подводя итог, можно сказать, что в ходе дискуссии были озвучены различные мнения по поводу применения ИИ в медиа: как положительные, так и отрицательные. Но совместные обсуждения этой темы однозначно будут способствовать дальнейшему развитию технологий и предотвращению возможных рисков для человека.

Юлия БЫСТРОВА

 

[ad_2]

Источник

banner

Вам может понравиться

Обзор сервисов ИИ

Искусственный интеллект

Daily AI

ИИ в жизни, бизнесе, науке и искусстве.

@2024 All Right Reserved. Designed and Developed by PenciDesign