Серия размеров виртуальных машин с ускорением gpu в подсеть ND

Применимо к: ✔️ Виртуальные машины Linux ✔️ Виртуальные машины Windows ✔️ Универсальные масштабируемые наборы

Семейство размеров виртуальных машин типа ND — это один из экземпляров виртуальной машины с ускорением GPU Azure. Они предназначены для глубокого обучения, исследования ИИ и высокопроизводительных вычислительных задач, которые пользуются мощным ускорением GPU. Оснащенные графическими процессорами NVIDIA, виртуальные машины серии ND предлагают специализированные возможности для обучения и вывода сложных моделей машинного обучения, упрощая более быстрые вычисления и эффективную обработку больших наборов данных. Это делает их особенно хорошо подходит для академических и коммерческих приложений в разработке и имитации ИИ, где передовые технологии GPU важны для достижения быстрых и точных результатов обработки нейронной сети и других вычислительных интенсивных задач.

Рабочие нагрузки и варианты использования

ИИ и глубокое обучение. Виртуальные машины семейства ND идеально подходят для обучения и развертывания сложных моделей глубокого обучения. Оснащен мощными GPU NVIDIA, они обеспечивают вычислительные мощности, необходимые для обработки обширного обучения нейронной сети с большими наборами данных, значительно сокращая время обучения.

Высокопроизводительные вычисления (HPC): виртуальные машины семейства ND подходят для приложений HPC, требующих ускорения GPU. Такие области, как научные исследования, моделирование инженерных вычислений (например, динамики вычислительной жидкости) и геномическая обработка могут воспользоваться возможностями вычислений с высокой пропускной способностью виртуальных машин серии ND.

Серия в семействе

Серия ND версии 1

Виртуальные машины серии ND — это новое дополнение к семейству GPU, предназначенное для рабочих нагрузок ИИ и глубокого обучения. Они обеспечивают превосходную производительность для обучения и вывода. Экземпляры ND созданы на базе GPU NVIDIA Tesla P40 и процессоров Intel Xeon E5-2690 v4 (Broadwell). Эти экземпляры обеспечивают высокую производительность для операций одиночной точности с числами с плавающей запятой, а также для рабочих нагрузок ИИ, в которых используются Microsoft Cognitive Toolkit, TensorFlow, Caffe и другие платформы. В серии ND значительно увеличен объем памяти графического процессора (24 ГБ), что позволяет работать с моделями нейронных сетей гораздо большего размера. Как и в серии NC, конфигурация серии ND предусматривает низкую задержку (менее секунды), высокую пропускную способность сети за счет использования RDMA и подключение InfiniBand. Это позволяет выполнять масштабные задания, связанные с обучением, в которых задействованы многочисленные GPU.

Просмотрите полную страницу серии ND.

Часть Количество
Подсчет единиц
Очки
Идентификатор SKU, единицы производительности и т. д.
Процессор 6 — 24 виртуальных ЦП Intel Xeon E5-2690 v4 (Broadwell) [x86-64]
Память 112 - 448 ГиБ
Локальное хранилище 1 диск 736 - 2948 ГиБ
Удаленное хранилище 12 — 32 диска 20000 – 80000 операций ввода-вывода в секунду
200 – 800 МБИТ/с
Network 4 – 8 сетевых адаптеров
Ускорители 1 – 4 GPU Nvidia Tesla P40 GPU (24 ГБ)

Серия NDv2

Виртуальные машины серии NDv2 представляют собой новое пополнение семейства графических процессоров для наиболее требовательных задач ИИ с поддержкой ускорения за счет GPU, машинного обучения, моделирования и рабочих нагрузок HPC.

NDv2 работает на основе 8 процессоров GPU NVIDIA Tesla V100, подключенных по NVLINK, каждый из которых оснащен 32 ГБ памяти GPU. У каждой виртуальной машины NDv2 есть также 40 процессоров Intel Xeon Platinum 8168 (Skylake) без технологии Hyper-Threading и 672 ГиБ системной памяти.

Экземпляры NDv2 обеспечивают превосходную производительность для рабочих нагрузок HPC и ИИ, которые используют ядра вычислений, оптимизированные для GPU на основе CUDA, а также для многих средств ИИ, машинного обучения и аналитики со стандартной поддержкой ускорения GPU, например TensorFlow, Pytorch, Caffe, RAPIDS и других платформ.

Важно отметить, что NDv2 рассчитаны на ресурсоемкие рабочие нагрузки с возможностью как вертикального увеличения масштаба (за счет использования 8 GPU для каждой виртуальной машины), так и горизонтального увеличения масштаба (работа нескольких виртуальных машин вместе). Серия NDv2 теперь поддерживает 100-гигабитную межсерверную сеть InfiniBand EDR, аналогичную той, что доступна на виртуальных машинах серии HB для высокопроизводительных вычислений. Это обеспечивает эффективную кластеризацию для сценариев параллельной обработки, включая распределенное обучение для ИИ и машинного обучения. Эта межсерверная сеть поддерживает все основные протоколы InfiniBand, включая те, что используются библиотеками NCCL2 NVIDIA. Это позволяет эффективно выполнять кластеризацию процессоров GPU.

Просмотр полной страницы серии NDv2

Часть Количество
Подсчет единиц
Очки
Идентификатор SKU, единицы производительности и т. д.
Процессор 40 виртуальных ЦП Intel Xeon Platinum 8168 (Skylake) [x86-64]
Память 672 Гиб
Локальное хранилище 1 диск 2948 ГиБ
Удаленное хранилище 32 диска 80000 операций ввода-вывода в секунду
800 Мбит/с
Network 8 сетевых адаптеров 24000 Мбит/с
Ускорители нет

серия ND_A100_v4

Виртуальная машина серии ND A100 версии 4 — это новое флагманское дополнение к семейству GPU Azure. Эти размеры предназначены для высокоуровневой подготовки глубокого обучения и тесно связаны с масштабируемыми и масштабируемыми рабочими нагрузками HPC.

Серия ND A100 версии 4 начинается с одной виртуальной машины и восьми GPU NVIDIA Ampere A100 40 ГБ Tensor Core. Развертывания на основе ND A100 версии 4 могут масштабироваться до тысяч GPU с пропускной способностью 1,6 ТБ/с пропускной способности взаимодействия на каждую виртуальную машину. Каждый ГРАФИЧЕСКИй процессор в виртуальной машине предоставляется с собственным выделенным подключением 200 ГБ/с NVIDIA Mellanox HDR InfiniBand. Эти подключения автоматически настраиваются между виртуальными машинами, занимающими один и тот же масштабируемый набор виртуальных машин Azure, и поддерживают GPU Direct RDMA.

Каждый GPU включает подключение NVLINK 3.0 для взаимодействия в виртуальной машине с 96 физическими 2-го поколения AMD Epyc™ 7V12 (Рим) ядрами ЦП.

Эти экземпляры обеспечивают великолепную производительность для многих средств аналитики, машинного обучения и искусственного интеллекта, которые в стандартной конфигурации поддерживают ускорение GPU, в том числе TensorFlow, Pytorch, Caffe, RAPIDS и другие платформы. Кроме того, межсоединение InfiniBand поддерживает большой набор существующих средств искусственного интеллекта и HPC, созданных на основе библиотек коммуникации NVIDIA NCCL2 для эффективного кластеризации gpu.

Просмотрите полную страницу серии ND_A100_v4.

Часть Количество
Подсчет единиц
Очки
Идентификатор SKU, единицы производительности и т. д.
Процессор 96 виртуальных ЦП AMD EPYC 7V12 (Рим) [x86-64]
Память 900 ГиБ
Локальное хранилище 1 диск 6000 ГиБ
Удаленное хранилище 32 диска 80000 операций ввода-вывода в секунду
800 Мбит/с
Network 8 сетевых адаптеров 24000 Мбит/с
Ускорители 8 GPU Nvidia A100 GPU (40 ГБ)

Серия NDm_A100_v4

Виртуальная машина серии NDm A100 версии 4 — это новое флагманское дополнение к семейству GPU Azure. Эти размеры предназначены для высокоуровневой подготовки глубокого обучения и тесно связаны с масштабируемыми и масштабируемыми рабочими нагрузками HPC.

Серия NDm A100 версии 4 начинается с одной виртуальной машины и восьми GPU NVIDIA Ampere A100 80 ГБ Tensor Core. Развертывания NDm A100 версии 4 могут масштабироваться до тысяч GPU с пропускной способностью 1,6 ТБ/с пропускной способности взаимодействия на каждую виртуальную машину. Каждый ГРАФИЧЕСКИй процессор в виртуальной машине предоставляется с собственным выделенным подключением 200 ГБ/с NVIDIA Mellanox HDR InfiniBand. Эти подключения автоматически настраиваются между виртуальными машинами, занимающими один и тот же масштабируемый набор виртуальных машин Azure, и поддерживают GPU Direct RDMA.

Каждый GPU включает подключение NVLINK 3.0 для взаимодействия в виртуальной машине с 96 физическими 2-го поколения AMD Epyc™ 7V12 (Рим) ядрами ЦП.

Эти экземпляры обеспечивают великолепную производительность для многих средств аналитики, машинного обучения и искусственного интеллекта, которые в стандартной конфигурации поддерживают ускорение GPU, в том числе TensorFlow, Pytorch, Caffe, RAPIDS и другие платформы. Кроме того, межсоединение InfiniBand поддерживает большой набор существующих средств искусственного интеллекта и HPC, созданных на основе библиотек коммуникации NVIDIA NCCL2 для эффективного кластеризации gpu.

Просмотрите полную страницу серии NDm_A100_v4.

Часть Количество
Подсчет единиц
Очки
Идентификатор SKU, единицы производительности и т. д.
Процессор 96 виртуальных ЦП AMD EPYC 7V12 (Рим) [x86-64]
Память 1900 ГиБ
Локальное хранилище 1 диск 6400 ГиБ
Удаленное хранилище 32 диска 80000 операций ввода-вывода в секунду
800 Мбит/с
Network 8 сетевых адаптеров 24000 Мбит/с
Ускорители 8 GPU Nvidia A100 GPU (80 ГБ)

серия ND_H100_v5

Виртуальная машина серии ND H100 v5 — это новое флагманское дополнение к семейству GPU Azure. Эта серия предназначена для высокоуровневого обучения глубокого обучения и тесно связана с масштабируемыми и масштабируемыми рабочими нагрузками ИИ и HPC.

Серия ND H100 v5 начинается с одной виртуальной машины и восьми gpu NVIDIA H100 Tensor Core. Развертывания на основе ND H100 версии 5 могут масштабироваться до тысяч GPU с 3,2 ТБ пропускной способности взаимодействия на каждую виртуальную машину. Каждый GPU в виртуальной машине предоставляется с собственным выделенным подключением InfiniBand, не зависящим от топологии 400 ГБ/с NVIDIA Quantum-2 CX7. Эти подключения автоматически настраиваются между виртуальными машинами, занимающими один и тот же масштабируемый набор виртуальных машин, и поддерживают GPU Direct RDMA.

Каждый GPU включает подключение NVLINK 4.0 для обмена данными на виртуальной машине, а экземпляр имеет 96 физических четвертых ядер процессора Intel Xeon Scalable.

Эти экземпляры обеспечивают отличную производительность для многих средств искусственного интеллекта, машинного обучения и аналитики, которые поддерживают ускорение GPU "вне коробки", такие как TensorFlow, Pytorch, Caffe, RAPIDS и другие платформы. Кроме того, масштабируемое взаимодействие InfiniBand поддерживает большой набор существующих средств искусственного интеллекта и HPC, созданных на основе библиотек коммуникации NVIDIA NCCL для эффективного кластеризации gpu.

Просмотрите полную страницу серии ND_H100_v5.

Часть Количество
Подсчет единиц
Очки
Идентификатор SKU, единицы производительности и т. д.
Процессор 96 виртуальных ЦП Intel Xeon (Sapphire Rapids) [x86-64]
Память 1900 ГиБ
Локальное хранилище 1 диск 28000 ГиБ
Удаленное хранилище 32Disks
Network 8 сетевых адаптеров
Ускорители 8 GPU Nvidia H100 GPU (80 ГБ)

серия ND_MI300X_v5

Виртуальная машина серии ND MI300X версии 5 — это новое флагманское дополнение к семейству GPU Azure. Она была разработана для высокоуровневого обучения глубокого обучения и тесно связана с масштабируемыми и масштабируемыми рабочими нагрузками ИИ и HPC.

Виртуальная машина серии ND MI300X версии 5 начинается с восьми графических процессоров AMD Instinct MI300 и двух четвертых процессоров Intel Xeon Scalable для всего 96 физических ядер. Затем каждый GPU в виртуальной машине подключается друг к другу через 4-го поколения AMD Infinity Fabric связи с пропускной способностью 128 ГБ/с на GPU и 896 ГБ/с агрегированной пропускной способности.

Развертывания на основе ND MI300X версии 5 могут масштабироваться до тысяч gpu с пропускной способностью 3,2 ТБ/с пропускной способности взаимодействия на каждую виртуальную машину. Каждый GPU в виртуальной машине предоставляется с собственным выделенным подключением InfiniBand, не зависящим от топологии 400 ГБ/с NVIDIA Quantum-2 CX7. Эти подключения автоматически настраиваются между всеми виртуальными машинами, которые входят в один масштабируемый набор виртуальных машин, и поддерживают технологию GPUDirect RDMA.

Эти экземпляры обеспечивают отличную производительность для многих средств искусственного интеллекта, машинного обучения и аналитики, которые поддерживают ускорение GPU "вне коробки", такие как TensorFlow, Pytorch и другие платформы. Кроме того, межсоединение InfiniBand поддерживает большой набор существующих средств ИИ и HPC, созданных на базе библиотеки roCm Communication Collectives (RCCL) AMD для эффективного кластеризации gpu.

Просмотрите полную страницу серии ND_MI300X_v5.

Часть Количество
Подсчет единиц
Очки
Идентификатор SKU, единицы производительности и т. д.
Процессор 96 виртуальных ЦП Intel Xeon (Sapphire Rapids) [x86-64]
Память 1850 ГиБ
Локальное хранилище 1 Временный диск
8 дисков NVMe
1000 ГиБ-временный диск
Диски NVMe 28000 ГиБ
Удаленное хранилище 32 диска 80000 операций ввода-вывода в секунду
1200 Мбит/с
Network 8 сетевых адаптеров
Ускорители 8 GPU AMD Instinct MI300X GPU (192 ГБ)

Серия семейств ND предыдущего поколения

Сведения о старых размерах см . в предыдущих размерах поколения.

Другие сведения о размере

Список всех доступных размеров: размеры

Калькулятор цен: Калькулятор цен

Сведения о типах дисков: типы дисков

Следующие шаги

Узнайте больше о том, как с помощью единиц вычислений Azure (ACU) сравнить производительность вычислений для различных номеров SKU Azure.

Ознакомьтесь с выделенными узлами Azure для физических серверов, которые могут размещать одну или несколько виртуальных машин, назначенных одной подписке Azure.

Узнайте, как отслеживать виртуальные машины Azure.