Série de tamanho de máquina virtual acelerada de GPU subfamiliar 'ND'

Aplica-se a: ✔️ VMs do Linux ✔️ VMs do Windows ✔️ Conjuntos de dimensionamento flexíveis ✔️ Conjuntos de dimensionamento uniformes

A família 'ND' da série de tamanho de VM é uma das instâncias de VM aceleradas por GPU do Azure. Elas foram projetadas para aprendizado profundo, pesquisa de IA e tarefas de computação de alto desempenho que se beneficiam de aceleração avançada de GPU. Equipadas com GPUs NVIDIA, as VMs da série ND oferecem funcionalidades especializadas para treinamento e inferência de modelos complexos de machine learning, facilitando cálculos mais rápidos e manipulação eficiente de grandes conjuntos de dados. Isso os torna particularmente adequados para aplicativos acadêmicos e comerciais em desenvolvimento e simulação de IA, em que a tecnologia de GPU de ponta é crucial para alcançar resultados rápidos e precisos no processamento de rede neural e outras tarefas computacionalmente intensivas.

Cargas de trabalho e casos de uso

IA e Aprendizado Profundo: VMs da família ND são ideais para treinar e implantar modelos complexos de aprendizado profundo. Equipados com GPUs NVIDIA avançadas, elas fornecem o poder computacional necessário para lidar com treinamento extensivo de rede neural com grandes conjuntos de dados, reduzindo significativamente os tempos de treinamento.

HPC (Computação de Alto Desempenho): VMs da família ND são adequadas para aplicativos HPC que exigem aceleração de GPU. Campos como pesquisa científica, simulações de engenharia (por exemplo, dinâmica de fluido computacional) e processamento genômico podem se beneficiar das funcionalidades de computação de alta taxa de transferência de VMs da série ND.

Visualização Remota: VMs da família ND podem ser usadas para visualização remota de tarefas com uso intensivo de dados, em que recursos de GPU de alto nível são necessários para processar e renderizar visualizações complexas na nuvem, facilitando o acesso de computadores cliente menos poderosos.

Visualização Remota: VMs da família ND podem ser usadas para visualização remota de tarefas com uso intensivo de dados, em que recursos de GPU de alto nível são necessários para processar e renderizar visualizações complexas na nuvem, facilitando o acesso de computadores cliente menos poderosos.

Série em família

Série ND V1

As máquinas virtuais da série ND são uma nova adição à família de GPU projetada para cargas de trabalho AI e Deep Learning. Elas oferecem um desempenho excelente para treinamento e Inferência. As instâncias ND são alimentadas por GPUs NVIDIA Tesla P40 e CPUs Intel Xeon E5-2690 v4 (Broadwell). Essas instâncias oferecem um desempenho excelente para operações de ponto flutuante de precisão simples, para cargas de trabalho de AI que utilizam o Cognitive Toolkit, o TensorFlow, o Caffe e outras estruturas. A série ND também oferece um tamanho de memória de GPU muito maior (24 GB), permitindo usar modelos de rede neural muito maiores. Como a série NC, a série ND oferece uma configuração com uma baixa latência secundária, uma rede com alta taxa de transferência por meio de RDMA e a conectividade InfiniBand, permitindo executar trabalhos de grande escala que abrangem várias GPUs.

Exibir a página completa da série ND.

Parte Quantidade
Unidades de Contagem
Especificações
ID SKU, unidades de desempenho, etc.
Processador 6 - 24 vCPUs Intel Xeon E5-2690 v4 (Broadwell) [x86-64]
Memória 112 - 448 GiB
Armazenamento local 1 disco 736 a 2.948 GiB
Armazenamento Remoto 12 - 32 discos 20.000 - 80.000 IOPS
200 - 800 MBps
Rede 4 - 8 NICs
Aceleradores 1 - 4 GPUs GPU Nvidia Tesla P40 (24 GB)

Série NDv2

A máquina virtual da série NDv2 é uma nova adição à família de GPUs projetada para as necessidades das cargas de trabalho com aceleração de GPU mais exigentes, como as de IA, de aprendizado de máquina, de simulação e de HPC.

O NDv2 é alimentado por 8 GPUs conectadas NVIDIA Tesla V100 NVLINK, cada uma com 32 GB de memória de GPU. Cada VM NDv2 também tem 40 núcleos Intel Xeon Benign 8168 (Skylake) não HyperThreaded e 672 GiB de memória do sistema.

As instâncias NDv2 fornecem um excelente desempenho para cargas de trabalho de HPC e IA utilizando kernels de computação otimizados para GPU CUDA e muitas ferramentas de IA, ML e análise que dão suporte à aceleração de GPU 'pronto para uso', como TensorFlow, Pytorch, Caffe, RAPIDS e outras estruturas.

De forma crítica, o NDv2 é criado para cargas de trabalho de escalação escalonada computacionalmente intensa (aproveitando 8 GPUs por VM) e escalando (aproveitando várias VMs trabalhando em conjunto). A série NDv2 agora dá suporte à rede de back-end infiniBand EDR de 100 Gigabits, semelhante à disponível na série HB da VM de HPC, para permitir clustering de alto desempenho para cenários paralelos, incluindo treinamento distribuído para IA e ML. Essa rede de back-end dá suporte a todos os principais protocolos InfiniBand, incluindo aqueles empregados pelas bibliotecas NCCL2 da NVIDIA, permitindo o clustering contínuo de GPUs.

Exibir a página completa da série NDv2

Parte Quantidade
Unidades de Contagem
Especificações
ID SKU, unidades de desempenho, etc.
Processador 40 vCPUs Intel Xeon Platinum 8168 (Skylake) [x86-64]
Memória 672 GiB
Armazenamento local 1 disco 2.948 GiB
Armazenamento Remoto 32 discos 80.000 IOPS
800 MBps
Rede 8 NICs 24000 MBps
Aceleradores Nenhum

ND_A100_v4-series

A máquina virtual da série ND A100 v4 é uma nova adição importante da família de GPU do Azure. Esses tamanhos são projetados para treinamentos avançados de Deep Learning e cargas de trabalho HPC de expansão e escalonamento vertical fortemente acopladas.

A série ND A100 v4 começa com uma só VM e oito GPUs NVIDIA Ampere A100 40 GB Tensor Core. As implantações baseadas na série ND A100 v4 podem ser dimensionadas para milhares de GPUs com uma largura de banda de interconexão de 1,6 TB/s por VM. Cada GPU na VM é fornecida com a própria conexão NVIDIA Mellanox HDR InfiniBand dedicada de 200 GB/s e independente da topologia. Essas conexões são configuradas automaticamente entre as VMs que ocupam o mesmo conjunto de dimensionamento de máquinas virtuais do Azure e dão suporte à GPU Direct RDMA.

Cada GPU apresenta conectividade NVLINK 3.0 para comunicação na VM, com suporte de 96 núcleos físicos de CPU AMD Epyc™ 7V12 (Rome) de 2ª geração.

Essas instâncias fornecem um excelente desempenho para muitas ferramentas de IA, ML e análise que dão suporte à aceleração de GPU 'pronta para uso', como o TensorFlow, o Pytorch, o Caffe, o RAPIDS e outras estruturas. Além disso, a interconexão InfiniBand de expansão dá suporte a um grande conjunto de ferramentas de IA e HPC existentes criadas nas bibliotecas de comunicação NCCL2 da NVIDIA para o clustering contínuo de GPUs.

Exibir a página completa da série ND_A100_v4.

Parte Quantidade
Unidades de Contagem
Especificações
ID SKU, unidades de desempenho, etc.
Processador 96 vCPUs AMD EPYC 7V12 (Rome) [x86-64]
Memória 900 GiB
Armazenamento local 1 disco 6.000 GiB
Armazenamento Remoto 32 discos 80.000 IOPS
800 MBps
Rede 8 NICs 24000 MBps
Aceleradores 8 GPUs GPU Nvidia A100 (40 GB)

NDm_A100_v4-series

A VM (máquina virtual) da série NDm A100 v4 é uma nova adição à família de GPU do Azure. Esses tamanhos são projetados para treinamentos avançados de Deep Learning e cargas de trabalho HPC de expansão e escalonamento vertical fortemente acopladas.

A série NDm A100 v4 começa com uma só VM e oito GPUs NVIDIA Ampere A100 80 GB Tensor Core. As implantações baseadas na série NDm A100 v4 podem ser dimensionadas para milhares de GPUs com uma largura de banda de interconexão de 1,6 TB/s por VM. Cada GPU na VM é fornecida com a própria conexão NVIDIA Mellanox HDR InfiniBand dedicada de 200 GB/s e independente de topologia. Essas conexões são configuradas automaticamente entre as VMs que ocupam o mesmo conjunto de dimensionamento de máquinas virtuais do Azure e dão suporte à GPU Direct RDMA.

Cada GPU apresenta conectividade NVLINK 3.0 para comunicação na VM, com suporte de 96 núcleos físicos de CPU AMD Epyc™ 7V12 (Rome) de 2ª geração.

Essas instâncias fornecem um excelente desempenho para muitas ferramentas de IA, ML e análise que dão suporte à aceleração de GPU 'pronta para uso', como o TensorFlow, o Pytorch, o Caffe, o RAPIDS e outras estruturas. Além disso, a interconexão InfiniBand de expansão dá suporte a um grande conjunto de ferramentas de IA e HPC existentes criadas nas bibliotecas de comunicação NCCL2 da NVIDIA para o clustering contínuo de GPUs.

Exibir a página completa da série NDm_A100_v4.

Parte Quantidade
Unidades de Contagem
Especificações
ID SKU, unidades de desempenho, etc.
Processador 96 vCPUs AMD EPYC 7V12 (Rome) [x86-64]
Memória 1.900 GiB
Armazenamento local 1 disco 6.400 GiB
Armazenamento Remoto 32 discos 80.000 IOPS
800 MBps
Rede 8 NICs 24000 MBps
Aceleradores 8 GPUs GPU Nvidia A100 (80 GB)

ND_H100_v5-series

A máquina virtual (VM) da série ND H100 v5 é o novo carro-chefe da família de GPUs do Azure. Esta série é projetada para treinamentos avançados de Deep Learning e cargas de trabalho de IA generativa e HPC de expansão e escalonamento vertical fortemente acopladas.

A série ND H100 v5 começa com uma só VM e oito GPUs NVIDIA H100 Tensor Core. As implantações baseadas na série ND H100 v5 podem realizar o escalonamento vertical para milhares de GPUs com 3,2 Tbps de largura de banda de interconexão por VM. Cada GPU na VM é fornecida com a própria conexão NVIDIA Quantum-2 CX7 InfiniBand de 400 Gb/s dedicada e independente de topologia. Essas conexões são configuradas automaticamente entre as VMs que ocupam o mesmo conjunto de dimensionamento de máquinas virtuais e dão suporte à GPU Direct RDMA.

Cada GPU apresenta conectividade NVLINK 4.0 para a comunicação na VM, e a instância tem 96 núcleos físicos de processador Intel Xeon Scalable de quarta geração.

Essas instâncias fornecem um excelente desempenho para muitas ferramentas de IA, ML e análise que dão suporte à aceleração de GPU "pronta para uso", como o TensorFlow, o Pytorch, o Caffe, o RAPIDS e outras estruturas. Além disso, a interconexão InfiniBand de expansão dá suporte a um grande conjunto de ferramentas de IA e HPC existentes criadas nas bibliotecas de comunicação NCCL da NVIDIA para o clustering contínuo de GPUs.

Exibir a página completa da série ND_H100_v5.

Parte Quantidade
Unidades de Contagem
Especificações
ID SKU, unidades de desempenho, etc.
Processador 96 vCPUs Intel Xeon (Sapphire Rapids) [x86-64]
Memória 1.900 GiB
Armazenamento local 1 disco 28.000 GiB
Armazenamento Remoto 32Discos
Rede 8 NICs
Aceleradores 8 GPUs GPU Nvidia H100 (80 GB)

ND_MI300X_v5-series

A VM (máquina virtual) da série ND MI300X v5 é o novo carro-chefe da família de GPU do Azure. Ela foi projetada para treinamento de aprendizado profundo de alto nível e cargas de trabalho de HPC e IA generativa de escala vertical e expansão altamente acopladas.

A VM da série ND MI300X v5 começa com oito GPUs AMD Instinct MI300 e dois processadores dimensionáveis Intel Xeon de quarta geração, para um total de 96 núcleos físicos. Em seguida, cada GPU da VM é conectada entre si por meio de links do Infinity Fabric AMD de 4ª geração com largura de banda de 128 GB/s por GPU e largura de banda agregada de 896 GB/s.

As implantações baseadas na série ND MI300X v5 podem ser dimensionadas para milhares de GPUs com uma largura de banda de interconexão de 3,2 TB/s por VM. Cada GPU na VM é fornecida com a própria conexão NVIDIA Quantum-2 CX7 InfiniBand de 400 Gb/s dedicada e independente de topologia. Essas conexões são configuradas automaticamente entre as VMs que ocupam o mesmo conjunto de dimensionamento de máquinas virtuais e dão suporte ao GPUDirect RDMA.

Essas instâncias fornecem um excelente desempenho para muitas ferramentas de IA, ML e análise que dão suporte à aceleração de GPU “pronta para uso”, como o TensorFlow, o PyTorch e outras estruturas. Além disso, a interconexão InfiniBand de expansão dá suporte a um grande conjunto de ferramentas existentes de IA e HPC baseadas nas RCCL (Bibliotecas de Comunicação ROCm) da AMD, permitindo o clustering contínuo das GPUs.

Exiba a página completa de ND_MI300X_v5-series.

Parte Quantidade
Unidades de Contagem
Especificações
ID SKU, unidades de desempenho, etc.
Processador 96 vCPUs Intel Xeon (Sapphire Rapids) [x86-64]
Memória 1.850 GiB
Armazenamento local 1 disco temporário
8 Discos NVMe
Disco Temporário de 1000 GiB
Discos NVMe de 28000 GiB
Armazenamento Remoto 32 discos 80.000 IOPS
1.200 MBps
Rede 8 NICs
Aceleradores 8 GPUs GPU AMD Instinct MI300X (192 GB)

Série da família ND da geração anterior

Para ver tamanhos mais antigos, confira Tamanhos da geração anterior.

Outras informações de tamanho

Lista de todos os tamanhos disponíveis: Tamanhos

Calculadora de Preços: Calculadora de Preços

Informações sobre os tipos de disco: Tipos de Disco

Próximas etapas

Saiba mais sobre como as ACUs (unidade de computação do Azure) podem ajudar você a comparar o desempenho de computação entre SKUs do Azure.

Confira Hosts Dedicados do Azure para servidores físicos com capacidade para hospedar uma ou mais máquinas virtuais atribuídas a uma assinatura do Azure.

Saiba como Monitorar as máquinas virtuais do Azure.