[ad_1]
Присоединяйтесь к нам в Атланте 10 апреля и изучите ситуацию в сфере безопасности. Мы рассмотрим концепцию, преимущества и варианты использования ИИ для служб безопасности. Запросите приглашение здесь.
Производитель чипов для искусственного интеллекта SambaNova Systems объявлено значительное достижение благодаря модели большого языка Samba-CoE v0.2 (LLM).
Эта модель, работающая со впечатляющей скоростью 330 токенов в секунду, превосходит несколько известных моделей конкурентов, таких как совершенно новый DBRX от Databricks, выпущенный только вчера, Mixtral-8x7B от MistralAI и Grok-1 от xAI Илона Маска и другие.
Что делает это достижение особенно примечательным, так это эффективность модели: она достигает таких скоростей без ущерба для точности, и для работы ей требуется всего 8 сокетов вместо альтернатив, требующих 576 сокетов и работающих на более низких скоростях передачи данных.
Действительно, в наших тестах LLM он выдавал ответы на наши входные данные невероятно быстро: 330,42 токена в секунду для ответа из 425 слов о галактике Млечный Путь.
Вопрос о квантовых вычислениях дал столь же надежный и быстрый ответ: за одну секунду было доставлено колоссальные 332,56 токенов.
Повышение эффективности
Акцент SambaNova на использовании меньшего количества сокетов при сохранении высоких скоростей передачи данных предполагает значительное повышение эффективности вычислений и производительности модели.
Также сообщается о предстоящем выпуске Samba-CoE v0.3 в партнерстве с LeptonAI, что указывает на постоянный прогресс и инновации.
Кроме того, SambaNova Systems подчеркивает, что в основе этих достижений лежат модели с открытым исходным кодом из Samba-1 и Sambaverse, в которых используется уникальный подход к ансамблю и слиянию моделей.
Эта методология не только лежит в основе текущей версии, но также предлагает масштабируемый и инновационный подход к будущим разработкам.
Сравнение с другими моделями, такими как Gemma-7B от GoogleAI, Mixtral-8x7B от MistralAI, llama2-70B от Meta, Qwen-72B от Alibaba Group, Falcon-180B от TIIuae и BLOOM-176B от BigScience, демонстрирует конкурентное преимущество Samba-CoE v0.2 в этой области. .
Это объявление, вероятно, вызовет интерес в сообществах ИИ и машинного обучения, что побудит к дискуссиям об эффективности, производительности и будущем разработки моделей ИИ.
Общие сведения о SambaNova
SambaNova Systems была основана в Пало-Альто, Калифорния, в 2017 году тремя соучредителями: Кунле Олукотуном, Родриго Лянгом и Кристофером Ре.
Первоначально сосредоточившись на создании индивидуальных аппаратных микросхем для искусственного интеллекта, амбиции SambaNova быстро расширились, охватив более широкий набор предложений, включая услуги машинного обучения и комплексную корпоративную платформу для обучения, разработки и развертывания искусственного интеллекта, известную как SambaNova Suite, в начале 2023 года и ранее в этом году. , модель искусственного интеллекта Samba-1 с 1 триллионом параметров, созданная из 50 меньших моделей в «Составе экспертов».
Эта эволюция от стартапа, ориентированного на аппаратное обеспечение, до новатора в области искусственного интеллекта с полным спектром услуг отражает стремление основателей обеспечить масштабируемые и доступные технологии искусственного интеллекта.
По мере того, как SambaNova занимает свою нишу в области искусственного интеллекта, она также позиционирует себя как серьезного соперника таким признанным гигантам, как Nvidia, собрав в 2021 году серию D на сумму 676 миллионов долларов при оценке более 5 миллиардов долларов.
Сегодня компания конкурирует с другими стартапами, специализирующимися на чипах искусственного интеллекта, такими как Groq, а также с такими стойкими приверженцами, как Nvidia.
[ad_2]
Источник