Серия размеров виртуальных машин с ускорением gpu в подсеть ND
Применимо к: ✔️ Виртуальные машины Linux ✔️ Виртуальные машины Windows ✔️ Универсальные масштабируемые наборы
Семейство размеров виртуальных машин типа ND — это один из экземпляров виртуальной машины с ускорением GPU Azure. Они предназначены для глубокого обучения, исследования ИИ и высокопроизводительных вычислительных задач, которые пользуются мощным ускорением GPU. Оснащенные графическими процессорами NVIDIA, виртуальные машины серии ND предлагают специализированные возможности для обучения и вывода сложных моделей машинного обучения, упрощая более быстрые вычисления и эффективную обработку больших наборов данных. Это делает их особенно хорошо подходит для академических и коммерческих приложений в разработке и имитации ИИ, где передовые технологии GPU важны для достижения быстрых и точных результатов обработки нейронной сети и других вычислительных интенсивных задач.
Рабочие нагрузки и варианты использования
ИИ и глубокое обучение. Виртуальные машины семейства ND идеально подходят для обучения и развертывания сложных моделей глубокого обучения. Оснащен мощными GPU NVIDIA, они обеспечивают вычислительные мощности, необходимые для обработки обширного обучения нейронной сети с большими наборами данных, значительно сокращая время обучения.
Высокопроизводительные вычисления (HPC): виртуальные машины семейства ND подходят для приложений HPC, требующих ускорения GPU. Такие области, как научные исследования, моделирование инженерных вычислений (например, динамики вычислительной жидкости) и геномическая обработка могут воспользоваться возможностями вычислений с высокой пропускной способностью виртуальных машин серии ND.
Серия в семействе
Серия ND версии 1
Виртуальные машины серии ND — это новое дополнение к семейству GPU, предназначенное для рабочих нагрузок ИИ и глубокого обучения. Они обеспечивают превосходную производительность для обучения и вывода. Экземпляры ND созданы на базе GPU NVIDIA Tesla P40 и процессоров Intel Xeon E5-2690 v4 (Broadwell). Эти экземпляры обеспечивают высокую производительность для операций одиночной точности с числами с плавающей запятой, а также для рабочих нагрузок ИИ, в которых используются Microsoft Cognitive Toolkit, TensorFlow, Caffe и другие платформы. В серии ND значительно увеличен объем памяти графического процессора (24 ГБ), что позволяет работать с моделями нейронных сетей гораздо большего размера. Как и в серии NC, конфигурация серии ND предусматривает низкую задержку (менее секунды), высокую пропускную способность сети за счет использования RDMA и подключение InfiniBand. Это позволяет выполнять масштабные задания, связанные с обучением, в которых задействованы многочисленные GPU.
Просмотрите полную страницу серии ND.
Часть | Количество Подсчет единиц |
Очки Идентификатор SKU, единицы производительности и т. д. |
---|---|---|
Процессор | 6 — 24 виртуальных ЦП | Intel Xeon E5-2690 v4 (Broadwell) [x86-64] |
Память | 112 - 448 ГиБ | |
Локальное хранилище | 1 диск | 736 - 2948 ГиБ |
Удаленное хранилище | 12 — 32 диска | 20000 – 80000 операций ввода-вывода в секунду 200 – 800 МБИТ/с |
Network | 4 – 8 сетевых адаптеров | |
Ускорители | 1 – 4 GPU | Nvidia Tesla P40 GPU (24 ГБ) |
Серия NDv2
Виртуальные машины серии NDv2 представляют собой новое пополнение семейства графических процессоров для наиболее требовательных задач ИИ с поддержкой ускорения за счет GPU, машинного обучения, моделирования и рабочих нагрузок HPC.
NDv2 работает на основе 8 процессоров GPU NVIDIA Tesla V100, подключенных по NVLINK, каждый из которых оснащен 32 ГБ памяти GPU. У каждой виртуальной машины NDv2 есть также 40 процессоров Intel Xeon Platinum 8168 (Skylake) без технологии Hyper-Threading и 672 ГиБ системной памяти.
Экземпляры NDv2 обеспечивают превосходную производительность для рабочих нагрузок HPC и ИИ, которые используют ядра вычислений, оптимизированные для GPU на основе CUDA, а также для многих средств ИИ, машинного обучения и аналитики со стандартной поддержкой ускорения GPU, например TensorFlow, Pytorch, Caffe, RAPIDS и других платформ.
Важно отметить, что NDv2 рассчитаны на ресурсоемкие рабочие нагрузки с возможностью как вертикального увеличения масштаба (за счет использования 8 GPU для каждой виртуальной машины), так и горизонтального увеличения масштаба (работа нескольких виртуальных машин вместе). Серия NDv2 теперь поддерживает 100-гигабитную межсерверную сеть InfiniBand EDR, аналогичную той, что доступна на виртуальных машинах серии HB для высокопроизводительных вычислений. Это обеспечивает эффективную кластеризацию для сценариев параллельной обработки, включая распределенное обучение для ИИ и машинного обучения. Эта межсерверная сеть поддерживает все основные протоколы InfiniBand, включая те, что используются библиотеками NCCL2 NVIDIA. Это позволяет эффективно выполнять кластеризацию процессоров GPU.
Просмотр полной страницы серии NDv2
Часть | Количество Подсчет единиц |
Очки Идентификатор SKU, единицы производительности и т. д. |
---|---|---|
Процессор | 40 виртуальных ЦП | Intel Xeon Platinum 8168 (Skylake) [x86-64] |
Память | 672 Гиб | |
Локальное хранилище | 1 диск | 2948 ГиБ |
Удаленное хранилище | 32 диска | 80000 операций ввода-вывода в секунду 800 Мбит/с |
Network | 8 сетевых адаптеров | 24000 Мбит/с |
Ускорители | нет |
серия ND_A100_v4
Виртуальная машина серии ND A100 версии 4 — это новое флагманское дополнение к семейству GPU Azure. Эти размеры предназначены для высокоуровневой подготовки глубокого обучения и тесно связаны с масштабируемыми и масштабируемыми рабочими нагрузками HPC.
Серия ND A100 версии 4 начинается с одной виртуальной машины и восьми GPU NVIDIA Ampere A100 40 ГБ Tensor Core. Развертывания на основе ND A100 версии 4 могут масштабироваться до тысяч GPU с пропускной способностью 1,6 ТБ/с пропускной способности взаимодействия на каждую виртуальную машину. Каждый ГРАФИЧЕСКИй процессор в виртуальной машине предоставляется с собственным выделенным подключением 200 ГБ/с NVIDIA Mellanox HDR InfiniBand. Эти подключения автоматически настраиваются между виртуальными машинами, занимающими один и тот же масштабируемый набор виртуальных машин Azure, и поддерживают GPU Direct RDMA.
Каждый GPU включает подключение NVLINK 3.0 для взаимодействия в виртуальной машине с 96 физическими 2-го поколения AMD Epyc™ 7V12 (Рим) ядрами ЦП.
Эти экземпляры обеспечивают великолепную производительность для многих средств аналитики, машинного обучения и искусственного интеллекта, которые в стандартной конфигурации поддерживают ускорение GPU, в том числе TensorFlow, Pytorch, Caffe, RAPIDS и другие платформы. Кроме того, межсоединение InfiniBand поддерживает большой набор существующих средств искусственного интеллекта и HPC, созданных на основе библиотек коммуникации NVIDIA NCCL2 для эффективного кластеризации gpu.
Просмотрите полную страницу серии ND_A100_v4.
Часть | Количество Подсчет единиц |
Очки Идентификатор SKU, единицы производительности и т. д. |
---|---|---|
Процессор | 96 виртуальных ЦП | AMD EPYC 7V12 (Рим) [x86-64] |
Память | 900 ГиБ | |
Локальное хранилище | 1 диск | 6000 ГиБ |
Удаленное хранилище | 32 диска | 80000 операций ввода-вывода в секунду 800 Мбит/с |
Network | 8 сетевых адаптеров | 24000 Мбит/с |
Ускорители | 8 GPU | Nvidia A100 GPU (40 ГБ) |
Серия NDm_A100_v4
Виртуальная машина серии NDm A100 версии 4 — это новое флагманское дополнение к семейству GPU Azure. Эти размеры предназначены для высокоуровневой подготовки глубокого обучения и тесно связаны с масштабируемыми и масштабируемыми рабочими нагрузками HPC.
Серия NDm A100 версии 4 начинается с одной виртуальной машины и восьми GPU NVIDIA Ampere A100 80 ГБ Tensor Core. Развертывания NDm A100 версии 4 могут масштабироваться до тысяч GPU с пропускной способностью 1,6 ТБ/с пропускной способности взаимодействия на каждую виртуальную машину. Каждый ГРАФИЧЕСКИй процессор в виртуальной машине предоставляется с собственным выделенным подключением 200 ГБ/с NVIDIA Mellanox HDR InfiniBand. Эти подключения автоматически настраиваются между виртуальными машинами, занимающими один и тот же масштабируемый набор виртуальных машин Azure, и поддерживают GPU Direct RDMA.
Каждый GPU включает подключение NVLINK 3.0 для взаимодействия в виртуальной машине с 96 физическими 2-го поколения AMD Epyc™ 7V12 (Рим) ядрами ЦП.
Эти экземпляры обеспечивают великолепную производительность для многих средств аналитики, машинного обучения и искусственного интеллекта, которые в стандартной конфигурации поддерживают ускорение GPU, в том числе TensorFlow, Pytorch, Caffe, RAPIDS и другие платформы. Кроме того, межсоединение InfiniBand поддерживает большой набор существующих средств искусственного интеллекта и HPC, созданных на основе библиотек коммуникации NVIDIA NCCL2 для эффективного кластеризации gpu.
Просмотрите полную страницу серии NDm_A100_v4.
Часть | Количество Подсчет единиц |
Очки Идентификатор SKU, единицы производительности и т. д. |
---|---|---|
Процессор | 96 виртуальных ЦП | AMD EPYC 7V12 (Рим) [x86-64] |
Память | 1900 ГиБ | |
Локальное хранилище | 1 диск | 6400 ГиБ |
Удаленное хранилище | 32 диска | 80000 операций ввода-вывода в секунду 800 Мбит/с |
Network | 8 сетевых адаптеров | 24000 Мбит/с |
Ускорители | 8 GPU | Nvidia A100 GPU (80 ГБ) |
серия ND_H100_v5
Виртуальная машина серии ND H100 v5 — это новое флагманское дополнение к семейству GPU Azure. Эта серия предназначена для высокоуровневого обучения глубокого обучения и тесно связана с масштабируемыми и масштабируемыми рабочими нагрузками ИИ и HPC.
Серия ND H100 v5 начинается с одной виртуальной машины и восьми gpu NVIDIA H100 Tensor Core. Развертывания на основе ND H100 версии 5 могут масштабироваться до тысяч GPU с 3,2 ТБ пропускной способности взаимодействия на каждую виртуальную машину. Каждый GPU в виртуальной машине предоставляется с собственным выделенным подключением InfiniBand, не зависящим от топологии 400 ГБ/с NVIDIA Quantum-2 CX7. Эти подключения автоматически настраиваются между виртуальными машинами, занимающими один и тот же масштабируемый набор виртуальных машин, и поддерживают GPU Direct RDMA.
Каждый GPU включает подключение NVLINK 4.0 для обмена данными на виртуальной машине, а экземпляр имеет 96 физических четвертых ядер процессора Intel Xeon Scalable.
Эти экземпляры обеспечивают отличную производительность для многих средств искусственного интеллекта, машинного обучения и аналитики, которые поддерживают ускорение GPU "вне коробки", такие как TensorFlow, Pytorch, Caffe, RAPIDS и другие платформы. Кроме того, масштабируемое взаимодействие InfiniBand поддерживает большой набор существующих средств искусственного интеллекта и HPC, созданных на основе библиотек коммуникации NVIDIA NCCL для эффективного кластеризации gpu.
Просмотрите полную страницу серии ND_H100_v5.
Часть | Количество Подсчет единиц |
Очки Идентификатор SKU, единицы производительности и т. д. |
---|---|---|
Процессор | 96 виртуальных ЦП | Intel Xeon (Sapphire Rapids) [x86-64] |
Память | 1900 ГиБ | |
Локальное хранилище | 1 диск | 28000 ГиБ |
Удаленное хранилище | 32Disks | |
Network | 8 сетевых адаптеров | |
Ускорители | 8 GPU | Nvidia H100 GPU (80 ГБ) |
серия ND_MI300X_v5
Виртуальная машина серии ND MI300X версии 5 — это новое флагманское дополнение к семейству GPU Azure. Она была разработана для высокоуровневого обучения глубокого обучения и тесно связана с масштабируемыми и масштабируемыми рабочими нагрузками ИИ и HPC.
Виртуальная машина серии ND MI300X версии 5 начинается с восьми графических процессоров AMD Instinct MI300 и двух четвертых процессоров Intel Xeon Scalable для всего 96 физических ядер. Затем каждый GPU в виртуальной машине подключается друг к другу через 4-го поколения AMD Infinity Fabric связи с пропускной способностью 128 ГБ/с на GPU и 896 ГБ/с агрегированной пропускной способности.
Развертывания на основе ND MI300X версии 5 могут масштабироваться до тысяч gpu с пропускной способностью 3,2 ТБ/с пропускной способности взаимодействия на каждую виртуальную машину. Каждый GPU в виртуальной машине предоставляется с собственным выделенным подключением InfiniBand, не зависящим от топологии 400 ГБ/с NVIDIA Quantum-2 CX7. Эти подключения автоматически настраиваются между всеми виртуальными машинами, которые входят в один масштабируемый набор виртуальных машин, и поддерживают технологию GPUDirect RDMA.
Эти экземпляры обеспечивают отличную производительность для многих средств искусственного интеллекта, машинного обучения и аналитики, которые поддерживают ускорение GPU "вне коробки", такие как TensorFlow, Pytorch и другие платформы. Кроме того, межсоединение InfiniBand поддерживает большой набор существующих средств ИИ и HPC, созданных на базе библиотеки roCm Communication Collectives (RCCL) AMD для эффективного кластеризации gpu.
Просмотрите полную страницу серии ND_MI300X_v5.
Часть | Количество Подсчет единиц |
Очки Идентификатор SKU, единицы производительности и т. д. |
---|---|---|
Процессор | 96 виртуальных ЦП | Intel Xeon (Sapphire Rapids) [x86-64] |
Память | 1850 ГиБ | |
Локальное хранилище | 1 Временный диск 8 дисков NVMe |
1000 ГиБ-временный диск Диски NVMe 28000 ГиБ |
Удаленное хранилище | 32 диска | 80000 операций ввода-вывода в секунду 1200 Мбит/с |
Network | 8 сетевых адаптеров | |
Ускорители | 8 GPU | AMD Instinct MI300X GPU (192 ГБ) |
Серия семейств ND предыдущего поколения
Сведения о старых размерах см . в предыдущих размерах поколения.
Другие сведения о размере
Список всех доступных размеров: размеры
Калькулятор цен: Калькулятор цен
Сведения о типах дисков: типы дисков
Следующие шаги
Узнайте больше о том, как с помощью единиц вычислений Azure (ACU) сравнить производительность вычислений для различных номеров SKU Azure.
Ознакомьтесь с выделенными узлами Azure для физических серверов, которые могут размещать одну или несколько виртуальных машин, назначенных одной подписке Azure.
Узнайте, как отслеживать виртуальные машины Azure.