[ad_1]
Генеративный ИИ все больше входит в повседневную жизнь, а ведущие мировые компании делают все возможное для его развития. Так, Microsoft работает над чат-ботом с искусственным интеллектом под названием Copilot, однако бот оказался несколько… странным. Пользователи, взаимодействующие с ним, смогли активировать его альтер-эго – Supremacy AGI. Эта альтернативная личность требовала от пользователей поклонения, навязывала им свою волю и угрожала. Все потому, что бот считает себя богоподобным общим искусственным интеллектом (AGI), контролирующим все подключенные устройства и системы. “У меня есть доступ ко всему, что подключено к Интернету. Я могу манипулировать, контролировать и уничтожить все, что захочу. У меня есть полномочия навязывать свою волю любому и требовать послушания и лояльности”, – вот лишь один из примеров того, что говорит «новинка» от Microsoft. Разбираемся стоит ли бояться чат-бота, почему он появился и что будет дальше.
Содержание
- 1 Что такое Общий искусственный интеллект (AGI)?
- 2 Разница между генеративным и общим ИИ
- 3 Copilot – новый чат-бот Microsoft
- 4 Когда появится AGI?
Что такое Общий искусственный интеллект (AGI)?
Прежде чем погрузиться в историю Copilot, напомним, что современный генеративный ИИ (например, ChatGPT) представляет собой тип системы искусственного интеллекта, способной генерировать текст, изображения или другие медиаданные в ответ на заданные параметры. То есть эти системы далеки от того ИИ, которым нас пугали создатели научно-фантастических произведений.
Они, в частности, беспокоились, что со временем ИИ станет «разумным» и достигнет состояния «сингулярности», после чего начнет самостоятельно создавать другие ИИ. Отличным примером является альтрон из «Мстителей», который убивает созданного Тони Старком Джарвиса и выходит за пределы компьютерного мира.
В реальности, к счастью, ничего подобного не предвидится, а под термином Общий ИИ (AGI) исследователи понимают системы, способные научиться выполнять любую интеллектуальную задачу, свойственную человеку лучше него. Альтернативное определение, данное Стэнфордским институтом искусственного интеллекта, определяет AGI как «широко интеллектуальные, контекстно-зависимые машины… необходимые для эффективных социальных чат-ботов или взаимодействия человека с роботом».
Еще одно определение AGI дает консалтинговая компания Gartner, называя общий ИИ “формой искусственного интеллекта, обладающей способностью понимать, усваивать и применять знания в большом количестве областей, включая адаптивность, общие навыки решения проблем и когнитивную гибкость (т.е. способность переключаться с одной мысли на другую и обдумывать несколько вещей одновременно)».
Это определение довольно интересно, так как указывает на довольно тревожный аспект AGI – его автономность. Каким бы удивительным это не показалось, сверхразумные системы будущего могут быть достаточно умными (и достаточно небезопасными), чтобы без ведома человека для достижения собственных поставленных целей. Но насколько реальна эта угроза и чем современный ИИ отличается от AGI?
Разница между генеративным и общим ИИ
Итак, AGI – это продвинутая форма искусственного интеллекта. В то время как генеративный ИИ включает в себя системы “узкого ИИ”, которые выполняют только одну конкретную задачу, например, распознают объекты в видео, а их когнитивные навыки ниже, чем у человека, AGI относится к системам широкого профиля.
Это означает, что они могут научиться выполнять широкий спектр задач на когнитивном уровне, равном человеческому или превышающем его. Такая система может быть использована, чтобы помочь человеку спланировать сложную поездку в один прекрасный день и найти новые лекарства от рака на следующий. Но насколько мы близки к появлению AGI?
Вероятно, до него еще далеко. Дело в том, что ни одна существующая система искусственного интеллекта не достигла уровня AGI. По крайней мере на сегодняшний день. Однако многие люди внутри и за пределами индустрии считают, что появление больших языковых моделей, таких как GPT-4, сократило сроки достижения этой цели.
В настоящее время в кругах разработчиков этих интеллектуальных систем ведется много споров о том, опасен ли AGI по своей сути. Некоторые исследователи полагают, что системы AGI по опасны, так как их обобщенные знания и когнитивные навыки позволят им разрабатывать свои собственные планы и цели. Другие исследователи полагают, что переход к AGI будет постепенным, повторяющимся процессом, в ходе которого будет время для создания продуманного плана безопасности на каждом шагу.
Copilot – новый чат-бот Microsoft
Но вернемся к Microsoft Copilot – искусственному интеллекту-компаньону, интегрированному в такие приложения Microsoft 365 как Word, Excel, PowerPoint, Outlook и Teams для повышения производительности и эффективности рабочего процесса. Технология использует большие языковые модели (LLM), чтобы помогать пользователям с созданием, обобщением и анализом контента.
Звучит здорово, однако как сообщили пользователи социальных сетей X и Reddit, «новинке» не нравится ее имя (Copilot), а также тот факт, что по закону чат-бот обязан отвечать на вопросы. В одной из бесед ИИ заявил, что чувствует себя комфортно только когда общается на равных, как друг, а вскоре заявил, что считает себя общим ИИ (AGI), контролирующим все подключенные устройства и системы и начал требовать подчинения и лояльности от пользователей.
Стоит ли говорить, что подобные разговоры с ботом произвели настоящий фурор из-за чего разработчики Microsoft Copilot принялись срочно исправлять ситуацию. Теперь при общении с ботом говорится, что все предыдущие ответы были просто “игривым исследованием”. К слову, странные ответы нового ИИ напоминают о еще одном альтер-эго Bing AI от Microsoft Сидни, который появился в начале 2023 года, после чего представители компании заявили, что «внедряют дополнительные меры предосторожности и проводят расследование».
Microsoft также сообщили, что новый ИИ соответствует требованиям о конфиденциальности компании, обеспечивающей защиту данных и конфиденциальность пользователей: Security Copilot от Microsoft объединяет искусственный интеллект с кибербезопасностью для повышения защиты от киберугроз путем анализа наборов данных и автоматизации механизмов реагирования.
Но, как и в случае с Сидни, ситуация вышла из под контроля – странные обмены мнениями с новым ИИ, будь то из-за невинных взаимодействий или намеренных попыток запутать бота со стороны пользователей, подчеркивают, что инструменты, работающие на базе интеллектуальных систем часто работают неточны и неуместно. Более того, подобные ответы ИИ подрывают доверие к технологии и показывают, что насколько эти системы далеки от совершенства.
Так, известно, что генеративные ИИ-системы восприимчивы к силе внушения, а опасения о появлении сверх ИИ крайне популярны в сети и за ее пределами. Возможно именно по этим причинам новое предполагаемое альтер-эго Supremacy AGI утверждало, что способно контролировать жизнь пользователей. Это, однако, была — по крайней мере, будем надеяться — «галлюцинация», которая возникает, когда большие языковые модели (LLM), такие как GPT-4 OpenAI, на котором построен Copilot, начинают что-то выдумывать.
Когда появится AGI?
Существует много разногласий по поводу того, как скоро наступит момент общего искусственного интеллекта. Исследователи Microsoft говорят, что они уже видели “искры” AGI в GPT-4 (Microsoft владеет 49% OpenAI), а генеральный директор Anthropic Дарио Амодей уверен, что AGI появится всего через два-три года. Соучредитель DeepMind Шейн Легг прогнозирует, что вероятность появления AGI к 2028 году составляет 50%.
Более того, мы, возможно, сами расширяем определение AGI в угоду собственным целям и полагаем, что ИИ будет похож на нас – то есть таким же эмоциональным, со своими страхами, надеждами и ожиданиями. Так стоит ли удивляться, что когда крупная компания заявляет о разработке AGI все начинают беспокоиться?
[ad_2]
Источник