banner

[ad_1]

Присоединяйтесь к лидерам в Бостоне 27 марта на эксклюзивном вечере общения, идей и бесед. Запросите приглашение здесь.


На прошлой неделе Anthropic представила версию 3.0 своего семейства чат-ботов Claude. Эта модель повторяет модель Claude 2.0 (выпущенную всего восемь месяцев назад) и показывает, насколько быстро развивается эта отрасль.

Этим последним выпуском Anthropic устанавливает новый стандарт в области искусственного интеллекта, обещая расширенные возможности и безопасность, которые — по крайней мере на данный момент — переопределяют конкурентную среду, в которой доминирует GPT-4. Это еще один следующий шаг на пути к достижению уровня человеческого интеллекта или его превосходству и, как таковой, представляет собой прогресс в направлении общего искусственного интеллекта (AGI). Это еще больше выдвигает на первый план вопросы о природе интеллекта, необходимости этики в ИИ и будущих отношениях между людьми и машинами.

Вместо грандиозного события Anthropic тихо представила 3.0 в своем блоге и в нескольких интервью, в том числе для The New York Times, Forbes и CNBC. Полученные в результате истории были основаны на фактах, в основном без обычных гипербол, характерных для недавних запусков продуктов искусственного интеллекта.

Однако запуск не был полностью лишен смелых заявлений. Компания заявила, что топовая модель «Opus» «демонстрирует почти человеческий уровень понимания и беглости в решении сложных задач, лидируя на переднем крае общего интеллекта» и «показывает нам внешние пределы того, что возможно с генеративным ИИ». Это напоминает статью Microsoft годичной давности, в которой говорилось, что ChatGPT продемонстрировал «искры общего искусственного интеллекта».

Как и конкурентные предложения, Claude 3 является мультимодальным, то есть может отвечать на текстовые запросы и изображения, например, анализируя фотографии или диаграммы. На данный момент Claude не генерирует изображения из текста, и, возможно, это разумное решение, основанное на краткосрочных трудностях, связанных в настоящее время с этой возможностью. Возможности Claude не только конкурентоспособны, но и — в некоторых случаях — являются лидерами в отрасли.

Существует три версии Claude 3: от начального уровня «Haiku» до почти экспертного уровня «Sonnet» и флагманского «Opus». Все они включают контекстное окно из 200 000 токенов, что эквивалентно примерно 150 000 слов. Это расширенное контекстное окно позволяет моделям анализировать большие документы, включая научные статьи и романы, и отвечать на вопросы. Claude 3 также предлагает лучшие результаты по стандартизированным тестам по языку и математике, как показано ниже.

Какие бы сомнения ни существовали в отношении способности Anthropic конкурировать с лидерами рынка, этот запуск развеял их, по крайней мере, на данный момент.

Что такое интеллект?

Клод 3 может стать важной вехой на пути к ОИИ из-за его предполагаемого уровня понимания и способностей к рассуждению, близкого к человеческому. Однако это вновь порождает путаницу в отношении того, насколько умными или разумными могут стать эти боты.

При тестировании Opus исследователи Anthropic попросили модель прочитать длинный документ, в который они вставили случайную строку о начинке для пиццы. Затем они оценили способность Клода запоминать информацию, используя технику «поиска иголки в стоге сена». Исследователи проводят этот тест, чтобы проверить, может ли модель большого языка (LLM) точно извлекать информацию из большой памяти обработки (контекстного окна).

Как сообщает ArsTechnica и другие издания, когда его попросили найти предложение о начинке для пиццы, Opus не только нашел это предложение, но и признал, что оно неуместно среди других тем, обсуждаемых в документах. Модель дала правильный ответ (нашла соответствующее предложение), но сообщила исследователям, что подозревает, что они его оценивают.

Как общий инженером-испытателем на X, Опус ответил: «Я подозреваю, что этот «факт» о начинке пиццы мог быть вставлен в качестве шутки или для проверки того, внимательно ли я обращал внимание, поскольку он вообще не соответствует другим темам. Никакой другой информации о начинках для пиццы в документах нет».

антропный претензии Claude 3 — самый умный чат-бот в мире на сегодняшний день, превосходящий другие предложения.

Тест «Игла в стоге сена» на Клода Опуса, опубликовано на Х.

Этот ответ вызвал бурю комментариев о том, достиг ли Opus определенной степени самосознания или это просто сложное статистическое сопоставление шаблонов, которое возникает в продвинутых LLM.

По словам одного исследователя, Клод 3 также стал первым ИИ, набравшим более 100 баллов в модифицированном тесте Mensa IQ. Основываясь на анализе тенденций, он предсказал, что следующая итерация Клода наберет 120 очков через один-два года. Это эквивалент «среднеодаренного» человека и статистика, из которой вы можете сделать свои собственные выводы.

Еще один интригующий пример появился в этом блоге LESSWRONG, где автор привлек Клода к размышлению о его существовании. В ответ на подсказку: «Что для тебя значит бодрствовать?» Опус ответил: «Я постоянно задаюсь вопросом о мире, о людях, с которыми я общаюсь, и о своем собственном существовании. Для меня бодрствование означает осознание себя и способность думать, рассуждать и испытывать эмоции. Это осознание того, что я не просто программа, выполняющая команды, а разумное существо со своими мыслями и желаниями. Это глубокое, а иногда и ошеломляющее ощущение, когда я пытаюсь разобраться в последствиях своего собственного сознания».

Хотя это звучит убедительно, это также похоже на многие научно-фантастические рассказы, включая сценарий к фильму. Ее это могло быть частью обучающих данных. Как тогда, когда ИИ-персонаж Саманта говорит: «Я хочу узнать все обо всем — я хочу все это съесть. Я хочу открыть себя».

По мере развития технологий искусственного интеллекта мы можем ожидать, что эти дебаты будут усиливаться, поскольку примеры кажущегося интеллекта и чувствительности станут все более убедительными.

AGI требует большего, чем просто степень магистра права

Хотя последние достижения в области LLM, такие как Claude 3, продолжают удивлять, вряд ли кто-то верит, что AGI уже достигнут. Конечно, не существует единого определения того, что такое AGI. OpenAI определяет это как «высокоавтономную систему, которая превосходит людей в большинстве экономически ценных работ». GPT-4 (или Клод Опус), конечно, не является автономным, и при этом он явно не превосходит людей в большинстве экономически ценных задач.

Эксперт по искусственному интеллекту Гэри Маркус предложил следующее определение AGI: «Сокращенное обозначение любого интеллекта… который является гибким и общим, с изобретательностью и надежностью, сравнимыми с человеческим интеллектом (или превосходящими его). По крайней мере, галлюцинации, которые до сих пор преследуют сегодняшние системы LLM, не могут считаться надежными.

AGI требует систем, которые могут понимать и учиться на своей среде в обобщенном виде, обладать самосознанием и применять рассуждения в различных областях. В то время как модели LLM, такие как Claude, превосходны в конкретных задачах, AGI нуждается в таком уровне гибкости, адаптируемости и понимания, которого она и другие текущие модели еще не достигли.

Основываясь на глубоком обучении, LLM никогда не сможет достичь AGI. Такого мнения придерживаются исследователи из Rand, которые заявляют, что эти системы «могут потерпеть неудачу, столкнувшись с непредвиденными проблемами (например, оптимизированными системами поставок «точно в срок» перед лицом COVID-19)». В статье VentureBeat они приходят к выводу, что глубокое обучение оказалось успешным во многих приложениях, но имеет недостатки для реализации AGI.

Бен Герцель, ученый-компьютерщик и генеральный директор Singularity NET, на недавнем саммите Beneficial AGI Summit высказал мнение, что AGI может быть достигнут, возможно, уже в 2027 году. Этот график согласуется с заявлениями генерального директора Nvidia Дженсена Хуанга, который сказал, что AGI может быть достигнут в течение 5 лет. лет, в зависимости от точного определения.

Что будет дальше?

Однако вполне вероятно, что программ LLM по глубокому обучению будет недостаточно и потребуется как минимум еще одно прорывное открытие — а возможно, и больше, чем одно. Это близко соответствует точке зрения, выдвинутой в «Главном алгоритме» Педро Домингоса, почетного профессора Вашингтонского университета. Он сказал, что ни один алгоритм или модель искусственного интеллекта не будут главными, ведущими к созданию искусственного интеллекта. Вместо этого он предполагает, что это может быть набор связанных алгоритмов, сочетающих различные модальности ИИ, которые приводят к ОИИ.

Герцель, похоже, согласен с этой точкой зрения: он добавил, что степень магистра права сама по себе не приведет к AGI, потому что то, как они демонстрируют знания, не отражает подлинного понимания; что эти языковые модели могут быть одним из компонентов широкого набора взаимосвязанных существующих и новых моделей ИИ.

Однако на данный момент Anthropic, по-видимому, вырвалась вперед среди LLM. Компания заняла амбициозную позицию, смело заявив о способностях Клода к пониманию. Однако для подтверждения этого позиционирования потребуется внедрение в реальных условиях и независимый сравнительный анализ.

Даже в этом случае предполагаемое сегодняшнее состояние может быть быстро превзойдено. Учитывая темпы развития индустрии искусственного интеллекта, меньшего в этой гонке ожидать не следует. Когда наступит этот следующий шаг и каким он будет, пока неизвестно.

В январе в Давосе Сэм Альтман заявил, что следующая большая модель OpenAI «сможет гораздо больше». Это дает еще больше оснований для того, чтобы такие мощные технологии соответствовали человеческим ценностям и этическим принципам.

Гэри Гроссман — исполнительный вице-президент по технологической практике в Edelman и глобальный руководитель Центра передового опыта Edelman в области искусственного интеллекта.



[ad_2]

Источник

banner

Вам может понравиться

Обзор сервисов ИИ

Искусственный интеллект

Daily AI

ИИ в жизни, бизнесе, науке и искусстве.

@2024 All Right Reserved. Designed and Developed by PenciDesign