'ND' alt ailesi GPU hızlandırılmış sanal makine boyutu serisi

Şunlar için geçerlidir: ✔️ Linux VM'leri ✔️ Windows VM'leri ✔️ Esnek ölçek kümeleri ✔️ Tekdüzen ölçek kümeleri

VM boyutu serisinin 'ND' ailesi, Azure'ın GPU hızlandırmalı VM örneklerinden biridir. Bunlar derin öğrenme, yapay zeka araştırması ve güçlü GPU hızlandırmasından yararlanan yüksek performanslı bilgi işlem görevleri için tasarlanmıştır. NVIDIA GPU'ları ile donatılmış ND serisi VM'ler, karmaşık makine öğrenmesi modellerinin eğitimi ve çıkarımı için özel özellikler sunar, daha hızlı hesaplamalar ve büyük veri kümelerinin verimli bir şekilde işlenmesini kolaylaştırır. Bu sayede yapay zeka geliştirme ve simülasyonundaki akademik ve ticari uygulamalar için özellikle çok uygundur. Burada son teknoloji GPU teknolojisi, sinir ağı işleme ve diğer hesaplama açısından yoğun işlem gücü gerektiren görevlerde hızlı ve doğru sonuçlar elde etmek için çok önemlidir.

İş yükleri ve kullanım örnekleri

Yapay Zeka ve Derin Öğrenme: ND ailesi VM'leri karmaşık derin öğrenme modellerini eğitme ve dağıtma için idealdir. Güçlü NVIDIA GPU'ları ile donatılmış bu gpu'lar, büyük veri kümeleriyle kapsamlı sinir ağı eğitimini işlemek için gereken hesaplama gücünü sağlayarak eğitim sürelerini önemli ölçüde azaltır.

Yüksek Performanslı Bilgi İşlem (HPC): ND ailesi VM'ler, GPU hızlandırma gerektiren HPC uygulamaları için uygundur. Bilimsel araştırma, mühendislik simülasyonları (hesaplama sıvısı dinamiği gibi) ve genomik işleme gibi alanlar, ND serisi VM'lerin yüksek aktarım hızına sahip bilgi işlem özelliklerinden yararlanabilir.

Grafik İşleme: ND ailesinin GPU'ları, animasyon ve video üretimi için gerçek zamanlı işleme ve sanal gerçeklik ortamları için yüksek uygunluk simülasyonları da dahil olmak üzere yoğun grafik kullanımlı görevler için harika bir seçimdir.

Uzaktan Görselleştirme: ND ailesi VM'leri, bulut üzerinde karmaşık görselleştirmeleri işlemek ve işlemek için üst düzey GPU özelliklerinin gerekli olduğu ve daha az güçlü istemci makinelerinden erişimi kolaylaştıran veri yoğunluklu görevlerin uzaktan görselleştirmesi için kullanılabilir.

Ailedeki seriler

ND serisi V1

ND serisi sanal makineler, yapay zeka ve Derin Öğrenme iş yükleri için tasarlanmış GPU ailesine yeni bir ektir. Eğitim ve çıkarım için mükemmel performans sunar. ND örnekleri NVIDIA Tesla P40 GPU'ları ve Intel Xeon E5-2690 v4 (Broadwell) CPU'ları tarafından desteklenir. Bu örnekler, Microsoft Bilişsel Araç Seti, TensorFlow, Caffe ve diğer çerçeveleri kullanan yapay zeka iş yükleri için tek duyarlıklı kayan nokta işlemleri için mükemmel performans sağlar. Ayrıca, ND serisi çok daha büyük bir GPU bellek boyutu (24 GB) sunarak daha büyük sinir ağı modellerinin sığdırılmasına imkan tanır. NC serisinde olduğu gibi ND serisi de rdma aracılığıyla ikincil düşük gecikme süreli, yüksek aktarım hızına sahip ağ ve InfiniBand bağlantısı ile bir yapılandırma sunar, böylece birçok GPU'yu kapsayan büyük ölçekli eğitim işlerini çalıştırabilirsiniz.

Nd serisi sayfasının tamamını görüntüleyin.

Bölüm Miktar
Birim Sayısı
Özellikleri
SKU Kimliği, Performans Birimleri vb.
İşleyen 6 - 24 vCPU Intel Xeon E5-2690 v4 (Broadwell) [x86-64]
Bellek 112 - 448 GiB
Yerel Depolama 1 Disk 736 - 2948 GiB
Uzakta Depolama 12 - 32 Disk 20000 - 80000 IOPS
200 - 800 MBps
4 - 8 NIC
Hızlandırıcılar 1 - 4 GPU Nvidia Tesla P40 GPU (24 GB)

NDv2 serisi

NDv2 serisi sanal makine, GPU ailesine en zorlu GPU hızlandırmalı yapay zeka, makine öğrenmesi, simülasyon ve HPC iş yüklerinin ihtiyaçları için tasarlanmış yeni bir ektir.

NDv2, her biri 32 GB GPU belleğine sahip 8 NVIDIA Tesla V100 NVLINK bağlantılı GPU ile desteklenir. Her NDv2 VM'sinde ayrıca 40 HyperThreaded olmayan Intel Xeon Platinum 8168 (Skylake) çekirdeği ve 672 GiB sistem belleği vardır.

NDv2 örnekleri CUDA GPU için iyileştirilmiş hesaplama çekirdeklerini kullanan HPC ve AI iş yükleri ile TensorFlow, Pytorch, Caffe, RAPIDS ve diğer çerçeveler gibi GPU hızlandırmayı destekleyen 'hazır' GPU hızlandırmayı destekleyen birçok yapay zeka, ML ve analiz aracı için mükemmel performans sağlar.

Kritik öneme sahip olan NDv2, hem işlem açısından yoğun ölçek büyütme (VM başına 8 GPU'yu kullanır) hem de ölçeği genişletme (birlikte çalışan birden çok VM'yi kullanma) iş yükleri için tasarlanmıştır. NDv2 serisi artık AI ve ML için dağıtılmış eğitim de dahil olmak üzere paralel senaryolar için yüksek performanslı kümeleme olanağı sağlamak için HPC VM'nin HB serisinde bulunana benzer şekilde 100 Gigabit InfiniBand EDR arka uç ağını destekliyor. Bu arka uç ağı, NVIDIA'nın NCCL2 kitaplıkları tarafından kullanılanlar da dahil olmak üzere tüm önemli InfiniBand protokollerini destekler ve GPU'ların sorunsuz bir şekilde kümelenmesine olanak tanır.

NDv2 serisi sayfasının tamamını görüntüleme

Bölüm Miktar
Birim Sayısı
Özellikleri
SKU Kimliği, Performans Birimleri vb.
İşleyen 40 vCPU Intel Xeon Platinum 8168 (Skylake) [x86-64]
Bellek 672 GiB
Yerel Depolama 1 Disk 2948 GiB
Uzakta Depolama 32 Disk 80000 IOPS
800 MBps
8 NIC 24000 Mb/sn
Hızlandırıcılar Hiçbiri

ND_A100_v4 serisi

ND A100 v4 serisi sanal makine (VM), Azure GPU ailesine eklenen yeni bir amiral gemisidir. Bu boyutlar üst düzey Derin Öğrenme eğitimi ve sıkı bir şekilde bağlanmış ölçeği artırma ve ölçeği genişletme HPC iş yükleri için tasarlanmıştır.

ND A100 v4 serisi tek bir VM ve sekiz NVIDIA Ampere A100 40 GB Tensor Core GPU ile başlar. ND A100 v4 tabanlı dağıtımlar, VM başına 1,6 TB/sn bağlantı bant genişliğiyle binlerce GPU'ya kadar ölçeklendirilebilir. VM içindeki her GPU kendi ayrılmış, topolojiden bağımsız 200 GB/sn NVIDIA Mellanox HDR InfiniBand bağlantısı ile sağlanır. Bu bağlantılar, aynı Azure Sanal Makine Ölçek Kümesi'ni kaplayan VM'ler arasında otomatik olarak yapılandırılır ve GPU Doğrudan RDMA'yı destekler.

Her GPU, arkalarında 96 fiziksel 2. nesil AMD Epyc™ 7V12 (Roma) CPU çekirdeği bulunan VM içinde iletişim için NVLINK 3.0 bağlantısına sahiptir.

Bu örnekler TensorFlow, Pytorch, Caffe, RAPIDS ve diğer çerçeveler gibi GPU hızlandırmayı destekleyen 'kullanıma hazır' GPU hızlandırmasını destekleyen birçok yapay zeka, ML ve analiz aracı için mükemmel performans sağlar. Buna ek olarak, ölçeği genişleten InfiniBand bağlantısı, GPU'ların sorunsuz kümelenmesi için NVIDIA'nın NCCL2 iletişim kitaplıkları üzerine oluşturulmuş çok sayıda mevcut yapay zeka ve HPC aracını destekler.

ND_A100_v4 serisi sayfasının tamamını görüntüleyin.

Bölüm Miktar
Birim Sayısı
Özellikleri
SKU Kimliği, Performans Birimleri vb.
İşleyen 96 vCPU AMD EPYC 7V12 (Roma) [x86-64]
Bellek 900 GiB
Yerel Depolama 1 Disk 6000 GiB
Uzakta Depolama 32 Disk 80000 IOPS
800 MBps
8 NIC 24000 Mb/sn
Hızlandırıcılar 8 GPU Nvidia A100 GPU (40 GB)

NDm_A100_v4 serisi

NDm A100 v4 serisi sanal makine (VM), Azure GPU ailesine eklenen yeni bir amiral gemisidir. Bu boyutlar üst düzey Derin Öğrenme eğitimi ve sıkı bir şekilde bağlanmış ölçeği artırma ve ölçeği genişletme HPC iş yükleri için tasarlanmıştır.

NDm A100 v4 serisi tek bir VM ve sekiz NVIDIA Ampere A100 80 GB Tensor Core GPU ile başlar. NDm A100 v4 tabanlı dağıtımlar, VM başına 1,6 TB/sn bağlantı bant genişliğiyle binlerce GPU'ya kadar ölçeklendirilebilir. VM içindeki her GPU kendi ayrılmış, topolojiden bağımsız 200 GB/sn NVIDIA Mellanox HDR InfiniBand bağlantısı ile sağlanır. Bu bağlantılar, aynı Azure Sanal Makine Ölçek Kümesi'ni kaplayan VM'ler arasında otomatik olarak yapılandırılır ve GPU Doğrudan RDMA'yı destekler.

Her GPU, arkalarında 96 fiziksel 2. nesil AMD Epyc™ 7V12 (Roma) CPU çekirdeği bulunan VM içinde iletişim için NVLINK 3.0 bağlantısına sahiptir.

Bu örnekler TensorFlow, Pytorch, Caffe, RAPIDS ve diğer çerçeveler gibi GPU hızlandırmayı destekleyen 'kullanıma hazır' GPU hızlandırmasını destekleyen birçok yapay zeka, ML ve analiz aracı için mükemmel performans sağlar. Buna ek olarak, ölçeği genişleten InfiniBand bağlantısı, GPU'ların sorunsuz kümelenmesi için NVIDIA'nın NCCL2 iletişim kitaplıkları üzerine oluşturulmuş çok sayıda mevcut yapay zeka ve HPC aracını destekler.

NDm_A100_v4 serisi sayfasının tamamını görüntüleyin.

Bölüm Miktar
Birim Sayısı
Özellikleri
SKU Kimliği, Performans Birimleri vb.
İşleyen 96 vCPU AMD EPYC 7V12 (Roma) [x86-64]
Bellek 1900 GiB
Yerel Depolama 1 Disk 6400 GiB
Uzakta Depolama 32 Disk 80000 IOPS
800 MBps
8 NIC 24000 Mb/sn
Hızlandırıcılar 8 GPU Nvidia A100 GPU (80 GB)

ND_H100_v5 serisi

ND H100 v5 serisi sanal makine (VM), Azure GPU ailesine eklenen yeni bir amiral gemisidir. Bu seri, üst düzey Derin Öğrenme eğitimi ve sıkı bir şekilde birleştirilmiş ölçek artırma ve ölçeği genişletme Üretken Yapay Zeka ve HPC iş yükleri için tasarlanmıştır.

ND H100 v5 serisi tek bir VM ve sekiz NVIDIA H100 Tensor Core GPU ile başlar. ND H100 v5 tabanlı dağıtımlar, VM başına 3,2 Tbps ara bağlantı bant genişliği ile binlerce GPU'ya kadar ölçeklendirilebilir. VM içindeki her GPU kendi ayrılmış, topolojiden bağımsız 400 Gb/sn NVIDIA Quantum-2 CX7 InfiniBand bağlantısı ile sağlanır. Bu bağlantılar, aynı sanal makine ölçek kümesini kaplayan VM'ler arasında otomatik olarak yapılandırılır ve GPU Doğrudan RDMA'yı destekler.

Her GPU, VM içindeki iletişim için NVLINK 4.0 bağlantısına sahiptir ve örnekte 96 fiziksel dördüncü Nesil Intel Xeon Ölçeklenebilir işlemci çekirdeği vardır.

Bu örnekler TensorFlow, Pytorch, Caffe, RAPIDS ve diğer çerçeveler gibi GPU hızlandırmayı destekleyen 'kullanıma hazır' GPU hızlandırmasını destekleyen birçok yapay zeka, ML ve analiz aracı için mükemmel performans sağlar. Buna ek olarak, ölçek genişletme InfiniBand bağlantısı, GPU'ların sorunsuz kümelenmesi için NVIDIA'nın NCCL iletişim kitaplıkları üzerinde oluşturulmuş olan büyük bir yapay zeka ve HPC araçlarını destekler.

ND_H100_v5 serisi sayfasının tamamını görüntüleyin.

Bölüm Miktar
Birim Sayısı
Özellikleri
SKU Kimliği, Performans Birimleri vb.
İşleyen 96 vCPU Intel Xeon (Safir Rapids) [x86-64]
Bellek 1900 GiB
Yerel Depolama 1 Disk 28000 GiB
Uzakta Depolama 32Disk
8 NIC
Hızlandırıcılar 8 GPU Nvidia H100 GPU (80 GB)

ND_MI300X_v5 serisi

ND MI300X v5 serisi sanal makine (VM), Azure GPU ailesine yeni bir amiral gemisi eklenmiştir. Üst düzey Derin Öğrenme eğitimi ve sıkı bir şekilde ölçek büyütme ve ölçeği genişletme Üretken Yapay Zeka ve HPC iş yükleri için tasarlanmıştır.

ND MI300X v5 serisi VM, toplam 96 fiziksel çekirdek için sekiz AMD Instinct MI300 GPU ve iki dördüncü Nesil Intel Xeon Ölçeklenebilir işlemci ile başlar. Ardından VM içindeki her GPU, GPU başına 128 GB/sn bant genişliğine ve 896 GB/sn toplam bant genişliğine sahip 4. Nesil AMD Infinity Fabric bağlantıları aracılığıyla birbirine bağlanır.

ND MI300X v5 tabanlı dağıtımlar, VM başına 3,2 Tb/sn bağlantı bant genişliği ile binlerce GPU'ya kadar ölçeklendirilebilir. VM içindeki her GPU kendi ayrılmış, topolojiden bağımsız 400 Gb/sn NVIDIA Quantum-2 CX7 InfiniBand bağlantısı ile sağlanır. Bu bağlantılar, aynı sanal makine ölçek kümesini kaplayan VM'ler arasında otomatik olarak yapılandırılır ve GPUDirect RDMA'yı destekler.

Bu örnekler, TensorFlow, Pytorch ve diğer çerçeveler gibi "kullanıma hazır" GPU hızlandırmasını destekleyen birçok yapay zeka, ML ve analiz aracı için mükemmel performans sağlar. Buna ek olarak, ölçek genişletme InfiniBand bağlantısı, GPU'ların sorunsuz kümelenmesi için AMD'nin ROCm İletişim Kolektifleri Kitaplığı (RCCL) üzerinde oluşturulmuş çok sayıda mevcut yapay zeka ve HPC aracını destekler.

ND_MI300X_v5 serisi sayfasının tamamını görüntüleyin.

Bölüm Miktar
Birim Sayısı
Özellikleri
SKU Kimliği, Performans Birimleri vb.
İşleyen 96 vCPU Intel Xeon (Safir Rapids) [x86-64]
Bellek 1850 GiB
Yerel Depolama 1 Geçici Disk
8 NVMe Diski
1000 GiB Geçici Disk
28000 GiB NVMe Diskleri
Uzakta Depolama 32 Disk 80000 IOPS
1200 MBps
8 NIC
Hızlandırıcılar 8 GPU AMD Instinct MI300X GPU (192 GB)

Önceki nesil ND ailesi serisi

Daha eski boyutlar için bkz . önceki nesil boyutlar.

Diğer boyut bilgileri

Kullanılabilir tüm boyutların listesi: Boyutlar

Fiyatlandırma Hesaplayıcısı: Fiyatlandırma Hesaplayıcısı

Disk Türleri hakkında bilgi: Disk Türleri

Sonraki adımlar

Azure işlem birimlerinin (ACU) Azure SKU'ları genelinde işlem performansını karşılaştırmanıza nasıl yardımcı olabileceği hakkında daha fazla bilgi edinin.

Bir Azure aboneliğine atanmış bir veya daha fazla sanal makineyi barındırabilen fiziksel sunucular için Azure Ayrılmış Konakları'na göz atın.

Azure sanal makinelerini izlemeyi öğrenin.