[ad_1]
Стартап Cohere в Торонто, занимающийся искусственным интеллектом, запустил Embed V3, последнюю версию своей модели внедрения, предназначенную для семантического поиска и приложений, использующих большие языковые модели (LLM).
Модели внедрения, которые преобразуют данные в числовые представления, также называемые «встраиваниями», привлекли значительное внимание в связи с появлением LLM и их потенциальными вариантами использования для корпоративных приложений.
Embed V3 конкурирует с Ada OpenAI и различными вариантами с открытым исходным кодом, обещая превосходную производительность и улучшенное сжатие данных. Это достижение направлено на снижение эксплуатационных затрат на корпоративные приложения LLM.
Вложения и RAG
Встраивания играют ключевую роль в различных задачах, включая поисковую дополненную генерацию (RAG), ключевое применение больших языковых моделей в корпоративном секторе.
RAG позволяет разработчикам предоставлять контекст LLM во время выполнения, получая информацию из таких источников, как руководства пользователя, истории электронной почты и чатов, статьи или другие документы, которые не были частью исходных данных обучения модели.
Чтобы выполнить RAG, компании должны сначала создать встраивания своих документов и сохранить их в векторной базе данных. Каждый раз, когда пользователь запрашивает модель, система искусственного интеллекта вычисляет встраивание приглашения и сравнивает его с встраиваниями, хранящимися в базе данных векторов. Затем он извлекает документы, наиболее похожие на приглашение, и добавляет содержимое этих документов на язык приглашения пользователя, предоставляя LLM необходимый контекст.
Решение новых задач корпоративного ИИ
RAG может помочь решить некоторые проблемы LLM, включая отсутствие доступа к актуальной информации и создание ложной информации, иногда называемой «галлюцинациями».
Однако, как и в случае с другими поисковыми системами, серьезной задачей RAG является поиск документов, наиболее соответствующих запросу пользователя.
Предыдущие модели внедрения сталкивались с проблемами с зашумленными наборами данных, когда некоторые документы могли неправильно сканироваться или не содержать полезной информации. Например, если пользователь запрашивает «симптомы COVID-19», более старые модели могут ранжировать менее информативный документ выше просто потому, что он содержит термин «у COVID-19 много симптомов».
С другой стороны, Embed V3 от Cohere демонстрирует превосходную производительность при сопоставлении документов с запросами, предоставляя более точную семантическую информацию о содержании документа.
В примере «Симптомы COVID-19» Embed V3 будет ранжировать документ, в котором обсуждаются конкретные симптомы, такие как «высокая температура», «постоянный кашель» или «потеря обоняния или вкуса», выше, чем документ, просто утверждающий, что COVID-19 имеет множество симптомов.
По данным Cohere, Embed V3 превосходит другие модели, включая ada-002 от OpenAI, в стандартных тестах, используемых для оценки производительности моделей внедрения.
Embed V3 доступен в различных размерах для встраивания и включает многоязычную версию, способную сопоставлять запросы к документам на разных языках. Например, он может найти документы на французском языке, соответствующие запросу на английском языке. Более того, Embed V3 можно настроить для различных приложений, таких как поиск, классификация и кластеризация.
Продвинутая тряпка
По данным Cohere, Embed V3 продемонстрировал превосходную производительность в сложных случаях использования, включая многошаговые запросы RAG. Если приглашение пользователя содержит несколько запросов, модель должна идентифицировать эти запросы отдельно и получить соответствующие документы для каждого из них.
Обычно это требует нескольких этапов анализа и извлечения. Способность Embed V3 предоставлять результаты более высокого качества в 10 наиболее часто извлекаемых документах снижает необходимость выполнения нескольких запросов к базе данных векторов.
Embed V3 также улучшает переоценку — функцию, которую Cohere добавила в свой API несколько месяцев назад. Изменение ранжирования позволяет поисковым приложениям сортировать существующие результаты поиска на основе семантического сходства.
«Реранкинг особенно эффективен для запросов и документов, которые затрагивают множество аспектов, с чем сталкиваются модели встраивания из-за их дизайна», — сказал VentureBeat представитель Cohere. «Однако Rerank требует, чтобы в качестве входных данных был передан первоначальный набор документов. Крайне важно, чтобы в этот топ-список входили наиболее важные документы. Более совершенная модель внедрения, такая как Embed V3, гарантирует, что ни один релевантный документ не будет пропущен в этом списке».
Более того, Embed V3 может помочь снизить затраты на эксплуатацию векторных баз данных. Модель прошла трехэтапный процесс обучения, включая специальный метод обучения с учетом сжатия. «Основным фактором затрат, часто в 10–100 раз превышающим вычисление вложений, является стоимость векторной базы данных», — сказал представитель. «Здесь мы провели специальное обучение с учетом сжатия, которое делает модели пригодными для векторного сжатия».
Согласно блогу Cohere, этот этап сжатия обеспечивает хорошую работу моделей с методами векторного сжатия. Эта совместимость значительно снижает затраты на базу данных векторов, возможно, на несколько факторов, сохраняя при этом качество поиска на уровне 99,99%.
[ad_2]
Источник