[ad_1]
Присоединяйтесь к лидерам в Бостоне 27 марта на эксклюзивном вечере общения, идей и бесед. Запросите приглашение здесь.
Nvidia сделала все возможное, чтобы расширить границы компьютерных технологий на конференции GTC в Сан-Хосе.
Генеральный директор Дженсен Хуанг, надев черную кожаную куртку, обратился к переполненной толпе (мероприятие было больше похоже на концерт, чем на конференцию) в своем программном докладе и анонсировал долгожданный суперчип GB200 Grace Blackwell, обещающий до 30-кратное увеличение производительности для больших языков. рабочие нагрузки вывода модели (LLM). Он также поделился заметными разработками в области автомобилестроения, робототехники, омниверса и здравоохранения, наводнив Интернет всем, что связано с Nvidia.
Однако GTC никогда не будет полной без отраслевого партнерства. Nvidia поделилась тем, как она развивает свою работу с несколькими отраслевыми гигантами, внедряя недавно анонсированную вычислительную инфраструктуру, программное обеспечение и услуги искусственного интеллекта в свой технологический стек. Ниже приводится краткое изложение ключевых партнерств.
АВС
Nvidia сообщила, что AWS предложит свою новую платформу Blackwell, включающую GB200 NVL72 с 72 графическими процессорами Blackwell и 36 процессорами Grace на инстансах EC2. Это позволит клиентам создавать и выполнять выводы в реальном времени для LLM с несколькими триллионами параметров быстрее, в больших масштабах и с меньшими затратами, чем графические процессоры Nvidia предыдущего поколения. Компании также объявили, что они внесут 20 736 суперчипов GB200 в Project Ceiba — суперкомпьютер искусственного интеллекта, созданный исключительно на AWS, — и объединятся для интеграции интеграции Amazon SageMaker с микросервисами вывода Nvidia NIM.
Google Облако
Как и Amazon, Google также объявила о внедрении платформы Nvidia Grace Blackwell и микросервисов NIM в свою облачную инфраструктуру. Компания также заявила, что добавляет поддержку JAX, собственной среды Python для высокопроизводительного обучения LLM, на графические процессоры Nvidia H100 и упрощает развертывание платформы Nvidia NeMo на своей платформе через Google Kubernetes Engine (GKE) и Google Cloud. Инструментарий HPC.
Кроме того, Vertex AI теперь будет поддерживать виртуальные машины Google Cloud A3 на базе графических процессоров NVIDIA H100 и виртуальные машины G2 на базе графических процессоров NVIDIA L4 Tensor Core.
Майкрософт
Microsoft также подтвердила план добавления микросервисов NIM и Grace Blackwell в Azure. Однако партнерство по суперчипу также включает в себя новую сетевую платформу Nvidia Quantum-X800 InfiniBand. Компания, возглавляемая Сатьей Наделлой, также объявила о встроенной интеграции DGX Cloud с Microsoft Fabric для оптимизации разработки пользовательских моделей искусственного интеллекта и доступности недавно запущенных API-интерфейсов Omniverse Cloud на платформе Azure Power.
В сфере здравоохранения Microsoft заявила, что Azure будет использовать набор микросервисов Clara от Nvidia и облако DGX, чтобы помочь поставщикам медицинских услуг, фармацевтическим и биотехнологическим компаниям, а также разработчикам медицинского оборудования быстро внедрять инновации в клинических исследованиях и оказании медицинской помощи.
Оракул
Oracle заявила, что планирует использовать вычислительную платформу Grace Blackwell в экземплярах OCI Supercluster и OCI Compute, причем последний будет использовать как суперчип Nvidia GB200, так и графический процессор B200 Tensor Core. Он также появится в облаке Nvidia DGX на OCI.
Помимо этого, в Oracle заявили, что микросервисы Nvidia NIM и CUDA-X, в том числе NeMo Retriever для развертываний логического вывода RAG, также помогут клиентам OCI повысить понимание и точность своих генеративных приложений искусственного интеллекта.
САП
SAP работает с Nvidia над интеграцией генеративного искусственного интеллекта в свои облачные решения, включая последнюю версию SAP Datasphere, SAP Business Technology Platform и RISE with SAP. Компания также заявила, что планирует создать дополнительные возможности генеративного искусственного интеллекта в SAP BTP с использованием службы генеративного искусственного интеллекта Nvidia, включающей суперкомпьютеры DGX Cloud AI, программное обеспечение Nvidia AI Enterprise и модели NVIDIA AI Foundation.
ИБМ
Чтобы помочь клиентам решать сложные бизнес-задачи, IBM Consulting планирует объединить свои технологии и отраслевой опыт со стеком программного обеспечения Nvidia AI Enterprise, включая новые микросервисы NIM и технологии Omniverse. В IBM заявляют, что это ускорит рабочие процессы ИИ клиентов, улучшит оптимизацию конкретных вариантов использования и разработает сценарии использования ИИ для бизнеса и отрасли. Компания уже создает и поставляет приложения цифровых двойников для цепочек поставок и производства с использованием Isaac Sim и Omniverse.
Снежинка
Облачная компания Snowflake расширила ранее объявленное партнерство с Nvidia для интеграции с NeMo Retriever. Микросервис генеративного искусственного интеллекта соединяет пользовательские LLM с корпоративными данными и позволит клиентам компании повысить производительность и масштабируемость приложений чат-ботов, созданных с помощью Snowflake Cortex. Сотрудничество также включает программное обеспечение Nvidia TensorRT, которое обеспечивает низкую задержку и высокую пропускную способность для приложений глубокого обучения.
Помимо Snowflake, поставщики платформ данных Box, Dataloop, Cloudera, Cohesity, Datastax и NetApp также объявили, что планируют использовать микросервисы Nvidia, включая совершенно новую технологию NIM, чтобы помочь клиентам оптимизировать конвейеры RAG и интегрировать свои собственные данные в генеративный искусственный интеллект. Приложения.
Nvidia GTC 2024 пройдет с 18 по 21 марта в Сан-Хосе и онлайн.
[ad_2]
Источник