GPU-serien "ND" i underfamiljen accelererade storleksserier för virtuella datorer

Gäller för: ✔️ Virtuella Linux-datorer ✔️ med virtuella Windows-datorer ✔️ – flexibla skalningsuppsättningar ✔️ Enhetliga skalningsuppsättningar

ND-serien med VM-storleksserier är en av Azures GPU-accelererade VM-instanser. De är utformade för djupinlärning, AI-forskning och högpresterande databehandlingsuppgifter som drar nytta av kraftfull GPU-acceleration. Utrustade med NVIDIA GPU:er erbjuder virtuella datorer i ND-serien särskilda funktioner för träning och slutsatsdragning av komplexa maskininlärningsmodeller, vilket underlättar snabbare beräkningar och effektiv hantering av stora datamängder. Detta gör dem särskilt väl lämpade för akademiska och kommersiella program inom AI-utveckling och simulering, där den senaste GPU-tekniken är avgörande för att uppnå snabba och korrekta resultat vid bearbetning av neurala nätverk och andra beräkningsintensiva uppgifter.

Arbetsbelastningar och användningsfall

AI och djupinlärning: Virtuella datorer i ND-serien är idealiska för träning och distribution av komplexa djupinlärningsmodeller. Utrustade med kraftfulla NVIDIA GPU:er ger de den beräkningskraft som krävs för att hantera omfattande neural nätverksträning med stora datamängder, vilket avsevärt minskar träningstiderna.

Högpresterande databehandling (HPC): Virtuella datorer i ND-serien är lämpliga för HPC-program som kräver GPU-acceleration. Områden som vetenskaplig forskning, tekniska simuleringar (t.ex. beräkningsströmningsdynamik) och genomisk bearbetning kan dra nytta av databehandlingsfunktionerna i ND-seriens virtuella datorer.

Grafikrendering: ND-familjens GPU:er gör dem till ett bra val för grafikintensiva uppgifter, inklusive realtidsrendering för animering och videoproduktion, samt simuleringar med hög återgivning för miljöer med virtuell verklighet.

Fjärrvisualisering: Virtuella datorer i ND-serien kan användas för fjärrvisualisering av dataintensiva uppgifter, där avancerade GPU-funktioner krävs för att bearbeta och återge komplexa visualiseringar över molnet, vilket underlättar åtkomsten från mindre kraftfulla klientdatorer.

Serie i familj

ND-serien V1

De virtuella datorerna i ND-serien är ett nytt tillägg till GPU-serien som är utformad för AI- och Deep Learning-arbetsbelastningar. De erbjuder utmärkta prestanda för träning och slutsatsdragning. ND-instanser drivs av NVIDIA Tesla P40 GPU:er och Intel Xeon E5-2690 v4 (Broadwell) processorer. Dessa instanser ger utmärkta prestanda för flyttalsåtgärder med enkel precision för AI-arbetsbelastningar som använder Microsoft Cognitive Toolkit, TensorFlow, Caffe och andra ramverk. ND-serien erbjuder även en mycket större GPU-minnesstorlek (24 GB), vilket gör det möjligt att passa större neurala nätverksmodeller. Precis som NC-serien erbjuder ND-serien en konfiguration med ett sekundärt nätverk med låg svarstid, högt dataflöde via RDMA och InfiniBand-anslutning så att du kan köra storskaliga träningsjobb som sträcker sig över många GPU:er.

Visa hela sidan i ND-serien.

Delvis Kvantitet
Antal enheter
Glasögon
SKU-ID, prestandaenheter osv.
Processor 6– 24 vCPU:er Intel Xeon E5-2690 v4 (Broadwell) [x86-64]
Minne 112 - 448 GiB
Lokal lagring 1 disk 736 - 2948 GiB
Fjärrlagring 12–32 diskar 20000 – 80000 IOPS
200 –800 Mbit/s
Nätverk 4–8 nätverkskort
Acceleratorer 1–4 GPU:er Nvidia Tesla P40 GPU (24GB)

NDv2-serien

Den virtuella datorn i NDv2-serien är ett nytt tillägg till GPU-serien som är utformad för behoven hos de mest krävande GPU-accelererade AI-, maskininlärnings-, simulerings- och HPC-arbetsbelastningarna.

NDv2 drivs av 8 NVIDIA Tesla V100 NVLINK-anslutna GPU:er, var och en med 32 GB GPU-minne. Varje virtuell NDv2-dator har också 40 icke-HyperThreaded Intel Xeon Platinum 8168-kärnor (Skylake) och 672 GiB systemminne.

NDv2-instanser ger utmärkta prestanda för HPC- och AI-arbetsbelastningar som använder CUDA GPU-optimerade beräkningskärnor och de många AI-, ML- och analysverktygen som stöder GPU-acceleration "out-of-box", till exempel TensorFlow, Pytorch, Caffe, RAPIDS och andra ramverk.

Kritiskt är att NDv2 är byggd för både beräkningsintensiv uppskalning (utnyttja 8 GPU:er per virtuell dator) och utskalning (utnyttja flera virtuella datorer som arbetar tillsammans) arbetsbelastningar. NDv2-serien stöder nu 100-Gigabit InfiniBand EDR-serverdelsnätverk, ungefär som på HB-serien med virtuella HPC-datorer, för att tillåta högpresterande kluster för parallella scenarier, inklusive distribuerad utbildning för AI och ML. Det här serverdelsnätverket stöder alla större InfiniBand-protokoll, inklusive de som används av NVIDIA:s NCCL2-bibliotek, vilket möjliggör sömlös klustring av GPU:er.

Visa hela NDv2-seriens sida

Delvis Kvantitet
Antal enheter
Glasögon
SKU-ID, prestandaenheter osv.
Processor 40 vCPU:er Intel Xeon Platinum 8168 (Skylake) [x86-64]
Minne 672 GiB
Lokal lagring 1 disk 2948 GiB
Fjärrlagring 32 diskar 80000 IOPS
800 Mbit/s
Nätverk 8 nätverkskort 24 000 Mbit/s
Acceleratorer Ingen

ND_A100_v4-serien

Den virtuella datorn (VM) i ND A100 v4-serien är ett nytt flaggskeppstillägg till Azure GPU-familjen. Dessa storlekar är utformade för avancerad djupinlärningsträning och nära kopplade arbetsbelastningar för uppskalning och utskalning av HPC.

ND A100 v4-serien börjar med en enda virtuell dator och åtta NVIDIA Ampere A100 40GB Tensor Core GPU:er. ND A100 v4-baserade distributioner kan skala upp till tusentals GPU:er med en bandbredd på 1,6 TB per virtuell dator. Varje GPU på den virtuella datorn tillhandahålls med en egen dedikerad, topologi-agnostisk 200 GB/s NVIDIA Mellanox HDR InfiniBand-anslutning. Dessa anslutningar konfigureras automatiskt mellan virtuella datorer som upptar samma Azure Virtual Machine Scale Set och har stöd för GPU Direct RDMA.

Varje GPU har NVLINK 3.0-anslutning för kommunikation inom den virtuella datorn med 96 fysiska AMD Epyc™ 7V12-processorkärnor i andra generationen (Rom) bakom sig.

Dessa instanser ger utmärkta prestanda för många AI-, ML- och analysverktyg som stöder GPU-acceleration "out-of-the-box", till exempel TensorFlow, Pytorch, Caffe, RAPIDS och andra ramverk. Dessutom stöder den utskalade InfiniBand-anslutningen en stor uppsättning befintliga AI- och HPC-verktyg som bygger på NVIDIA:s NCCL2-kommunikationsbibliotek för sömlös klustring av GPU:er.

Visa hela ND_A100_v4-seriens sida.

Delvis Kvantitet
Antal enheter
Glasögon
SKU-ID, prestandaenheter osv.
Processor 96 vCPU:er AMD EPYC 7V12 (Rom) [x86-64]
Minne 900 GiB
Lokal lagring 1 disk 6000 GiB
Fjärrlagring 32 diskar 80000 IOPS
800 Mbit/s
Nätverk 8 nätverkskort 24 000 Mbit/s
Acceleratorer 8 GPU:er Nvidia A100 GPU (40 GB)

NDm_A100_v4-serien

Den virtuella datorn(VM) i NDm A100 v4-serien är ett nytt flaggskeppstillägg till Azure GPU-familjen. Dessa storlekar är utformade för avancerad djupinlärningsträning och nära kopplade arbetsbelastningar för uppskalning och utskalning av HPC.

NDm A100 v4-serien börjar med en enda virtuell dator och åtta NVIDIA Ampere A100 80GB Tensor Core GPU:er. NDm A100 v4-baserade distributioner kan skala upp till tusentals GPU:er med en bandbredd på 1,6 TB per virtuell dator. Varje GPU på den virtuella datorn tillhandahålls med en egen dedikerad, topologi-agnostisk 200 GB/s NVIDIA Mellanox HDR InfiniBand-anslutning. Dessa anslutningar konfigureras automatiskt mellan virtuella datorer som upptar samma Azure Virtual Machine Scale Set och har stöd för GPU Direct RDMA.

Varje GPU har NVLINK 3.0-anslutning för kommunikation inom den virtuella datorn med 96 fysiska AMD Epyc™ 7V12-processorkärnor i andra generationen (Rom) bakom sig.

Dessa instanser ger utmärkta prestanda för många AI-, ML- och analysverktyg som stöder GPU-acceleration "out-of-the-box", till exempel TensorFlow, Pytorch, Caffe, RAPIDS och andra ramverk. Dessutom stöder den utskalade InfiniBand-anslutningen en stor uppsättning befintliga AI- och HPC-verktyg som bygger på NVIDIA:s NCCL2-kommunikationsbibliotek för sömlös klustring av GPU:er.

Visa hela sidan NDm_A100_v4-serien.

Delvis Kvantitet
Antal enheter
Glasögon
SKU-ID, prestandaenheter osv.
Processor 96 vCPU:er AMD EPYC 7V12 (Rom) [x86-64]
Minne 1900 GiB
Lokal lagring 1 disk 6400 GiB
Fjärrlagring 32 diskar 80000 IOPS
800 Mbit/s
Nätverk 8 nätverkskort 24 000 Mbit/s
Acceleratorer 8 GPU:er Nvidia A100 GPU (80 GB)

ND_H100_v5-serien

Den virtuella datorn i ND H100 v5-serien (VM) är ett nytt flaggskeppstillägg till Azure GPU-familjen. Den här serien är utformad för avancerad djupinlärningsträning och nära kopplade arbetsbelastningar för generativ AI och HPC.

ND H100 v5-serien börjar med en enda virtuell dator och åtta NVIDIA H100 Tensor Core GPU:er. ND H100 v5-baserade distributioner kan skala upp till tusentals GPU:er med 3,2 TB bandbredd per virtuell dator. Varje GPU på den virtuella datorn tillhandahålls med en egen dedikerad, topologi-agnostisk 400 Gb/s NVIDIA Quantum-2 CX7 InfiniBand-anslutning. Dessa anslutningar konfigureras automatiskt mellan virtuella datorer som upptar samma VM-skalningsuppsättning och stöder GPU Direct RDMA.

Varje GPU har NVLINK 4.0-anslutning för kommunikation inom den virtuella datorn, och instansen har 96 fysiska fjärde Gen Intel Xeon-skalbara processorskärnor.

Dessa instanser ger utmärkta prestanda för många AI-, ML- och analysverktyg som stöder GPU-acceleration "out-of-the-box", till exempel TensorFlow, Pytorch, Caffe, RAPIDS och andra ramverk. Dessutom stöder den utskalningsbaserade InfiniBand-anslutningen en stor uppsättning befintliga AI- och HPC-verktyg som bygger på NVIDIA:s NCCL-kommunikationsbibliotek för sömlös klustring av GPU:er.

Visa hela sidan ND_H100_v5-serien.

Delvis Kvantitet
Antal enheter
Glasögon
SKU-ID, prestandaenheter osv.
Processor 96 vCPU:er Intel Xeon (Sapphire Rapids) [x86-64]
Minne 1900 GiB
Lokal lagring 1 disk 28000 GiB
Fjärrlagring 32Diskar
Nätverk 8 nätverkskort
Acceleratorer 8 GPU:er Nvidia H100 GPU (80 GB)

ND_MI300X_v5-serien

Den virtuella datorn i ND MI300X v5-serien (VM) är ett nytt flaggskeppstillägg till Azure GPU-familjen. Den har utformats för avancerad djupinlärningsträning och nära kopplade generativa AI- och HPC-arbetsbelastningar.

Den virtuella datorn i ND MI300X v5-serien börjar med åtta AMD Instinct MI300 GPU:er och två fjärde Gen Intel Xeon Scalable-processorer för totalt 96 fysiska kärnor. Varje GPU i den virtuella datorn ansluts sedan till varandra via 4:e generationens AMD Infinity Fabric-länkar med 128 GB/s bandbredd per GPU och 896 GB/s aggregerad bandbredd.

ND MI300X v5-baserade distributioner kan skala upp till tusentals GPU:er med 3,2 TB bandbredd per virtuell dator. Varje GPU på den virtuella datorn tillhandahålls med en egen dedikerad, topologi-agnostisk 400 Gb/s NVIDIA Quantum-2 CX7 InfiniBand-anslutning. Dessa anslutningar konfigureras automatiskt mellan virtuella datorer som upptar samma VM-skalningsuppsättning och stöder GPUDirect RDMA.

Dessa instanser ger utmärkta prestanda för många AI-, ML- och analysverktyg som stöder GPU-acceleration "out-of-the-box", till exempel TensorFlow, Pytorch och andra ramverk. Dessutom stöder den utskalningsbaserade InfiniBand-anslutningen en stor uppsättning befintliga AI- och HPC-verktyg som bygger på AMD:s ROCm Communication Collectives Library (RCCL) för sömlös klustring av GPU:er.

Visa hela ND_MI300X_v5-seriens sida.

Delvis Kvantitet
Antal enheter
Glasögon
SKU-ID, prestandaenheter osv.
Processor 96 vCPU:er Intel Xeon (Sapphire Rapids) [x86-64]
Minne 1850 GiB
Lokal lagring 1 temp disk
8 NVMe-diskar
1000 GiB Temp Disk
28000 GiB NVMe-diskar
Fjärrlagring 32 diskar 80000 IOPS
1200 Mbit/s
Nätverk 8 nätverkskort
Acceleratorer 8 GPU:er AMD Instinct MI300X GPU (192GB)

Föregående generations ND-familjeserie

För äldre storlekar, se tidigare generationsstorlekar.

Annan storleksinformation

Lista över alla tillgängliga storlekar: Storlekar

Priskalkylator: Priskalkylator

Information om disktyper: Disktyper

Nästa steg

Läs mer om hur Azure-beräkningsenheter (ACU) kan hjälpa dig att jämföra beräkningsprestanda mellan Azure-SKU:er.

Kolla in Azure Dedicated Hosts för fysiska servrar som kan vara värdar för en eller flera virtuella datorer som tilldelats en Azure-prenumeration.

Lär dig hur du övervakar virtuella Azure-datorer.