banner

[ad_1]

Присоединяйтесь к лидерам в Бостоне 27 марта на эксклюзивном вечере общения, идей и бесед. Запросите приглашение здесь.


Nvidia представляет свои самые мощные системы с новым DGX SuperPod в рамках широкого внедрения аппаратного и программного обеспечения на сегодняшней конференции Nvidia GTC.

DGX в последние годы стал одним из основных серверных устройств и облачных систем Nvidia. Новая система DGX SuperPod оснащена графическими процессорами Nvidia следующего поколения для ускорения искусственного интеллекта, известными как Blackwell, которые анонсируются на GTC как преемники графических процессоров Hopper. Nvidia позиционирует Blackwell для поддержки и реализации моделей искусственного интеллекта, имеющих триллион параметров.

DGX SuperPOD объединяет версию суперчипа GB200 Blackwell, которая включает в себя ресурсы как процессора, так и графического процессора. Предыдущее поколение суперчипов Grace Hopper от Nvidia лежит в основе предыдущего поколения систем DGX. Существующие системы DGX от Nvidia уже широко используются во многих случаях, включая поиск лекарств, здравоохранение, обнаружение мошенничества, финансовые услуги, рекомендательные системы и потребительский Интернет.

«Это суперкомпьютерная платформа мирового класса, готовая под ключ», — заявил Ян Бак, вице-президент по гипермасштабированию и высокопроизводительным вычислениям в Nvidia, во время пресс-брифинга. «Он поддерживает полный стек программного обеспечения Nvidia для искусственного интеллекта, обеспечивая непревзойденную надежность и масштабируемость».

Что внутри DGX SuperPOD?

Хотя термин SuperPOD может показаться просто маркетинговой превосходной степенью, фактическое оборудование, которое Nvidia упаковывает в свою новую систему DGX, впечатляет.

DGX SuperPOD — это не просто сервер в одной стойке, это комбинация нескольких систем DGX GB200. Каждая система DGX GB200 оснащена 36 суперчипами Nvidia GB200, в том числе 36 процессорами Nvidia Grace и 72 графическими процессорами Nvidia Blackwell, соединенными как единый суперкомпьютер через Nvidia NVLink пятого поколения.

Что делает SuperPOD супер, так это то, что DGX SuperPOD может быть сконфигурирован с восемью или более системами DGX GB200 и может масштабироваться до десятков тысяч суперчипов GB200, подключенных через Nvidia Quantum InfiniBand.

Система может предоставить 240 терабайт памяти, что имеет решающее значение для обучения больших языковых моделей (LLM) и генеративного вывода ИИ в больших масштабах. Еще одна впечатляющая цифра, заявленная Nvidia, заключается в том, что DGX SuperPOD имеет 11,5 экзафлопс мощности суперкомпьютера искусственного интеллекта.

Усовершенствованные сетевые блоки и блоки обработки данных позволяют создать структуру SuperPOD с искусственным интеллектом.

Ключевым элементом того, что делает DGX SuperPOD супер, является тот факт, что очень много систем GB200 можно соединить вместе с помощью единой вычислительной структуры.

В основе этой структуры лежит недавно анонсированная сетевая технология Nvidia Quantum-X800 InfiniBand. Эта архитектура обеспечивает пропускную способность до 1800 гигабайт в секунду для каждого графического процессора платформы.

DGX также включает в себя DPU Nvidia BlueField-3 (блок обработки данных) и межсоединение Nvidia NVLink пятого поколения.

Кроме того, новый SuperPOD включает в себя технологию Nvidia Scalable Hierarchical Aggregation and Reduction Protocol (SHARP) четвертого поколения. По данным Nvidia, новая версия SHARP обеспечивает 14,4 терафлопс внутрисетевых вычислений, что представляет собой четырехкратное увеличение архитектуры DGX SuperPOD следующего поколения по сравнению с предыдущим поколением.

Blackwell переходит в Nvidia DGX Cloud

Новые системы DGX на базе GB200 также появятся в облачном сервисе Nvidia DGX.

Возможности GB200 сначала будут доступны в Amazon Web Services (AWS), Google Cloud и Oracle Cloud.

«DGX Cloud — это наше облако, которое мы разработали совместно с нашими облачными партнерами, чтобы предоставить лучшие технологии Nvidia для собственного использования Nvidia для наших собственных исследований и разработок в области искусственного интеллекта в наших продуктах, а также сделать их доступными для наших клиентов», — Бак сказал.

Новый GB200 также поможет продвинуть суперкомпьютер Project Ceiba, который Nvidia разрабатывает совместно с AWS, о котором впервые было объявлено в ноябре 2023 года. Project Ceiba — это попытка использовать DGX Cloud для создания крупнейшей в мире публичной облачной суперкомпьютерной платформы.

«Я рад сообщить, что проект Ceiba пропущен, теперь мы обновили его до Grace Blackwell, поддерживающего 20 000 графических процессоров», — сказал Бак. «Теперь он будет обеспечивать производительность ИИ более 400 экзафлопс».

[ad_2]

Источник

banner

Вам может понравиться

Обзор сервисов ИИ

Искусственный интеллект

Daily AI

ИИ в жизни, бизнесе, науке и искусстве.

@2024 All Right Reserved. Designed and Developed by PenciDesign