'ND' alt ailesi GPU hızlandırılmış sanal makine boyutu serisi
Şunlar için geçerlidir: ✔️ Linux VM'leri ✔️ Windows VM'leri ✔️ Esnek ölçek kümeleri ✔️ Tekdüzen ölçek kümeleri
VM boyutu serisinin 'ND' ailesi, Azure'ın GPU hızlandırmalı VM örneklerinden biridir. Bunlar derin öğrenme, yapay zeka araştırması ve güçlü GPU hızlandırmasından yararlanan yüksek performanslı bilgi işlem görevleri için tasarlanmıştır. NVIDIA GPU'ları ile donatılmış ND serisi VM'ler, karmaşık makine öğrenmesi modellerinin eğitimi ve çıkarımı için özel özellikler sunar, daha hızlı hesaplamalar ve büyük veri kümelerinin verimli bir şekilde işlenmesini kolaylaştırır. Bu sayede yapay zeka geliştirme ve simülasyonundaki akademik ve ticari uygulamalar için özellikle çok uygundur. Burada son teknoloji GPU teknolojisi, sinir ağı işleme ve diğer hesaplama açısından yoğun işlem gücü gerektiren görevlerde hızlı ve doğru sonuçlar elde etmek için çok önemlidir.
İş yükleri ve kullanım örnekleri
Yapay Zeka ve Derin Öğrenme: ND ailesi VM'leri karmaşık derin öğrenme modellerini eğitme ve dağıtma için idealdir. Güçlü NVIDIA GPU'ları ile donatılmış bu gpu'lar, büyük veri kümeleriyle kapsamlı sinir ağı eğitimini işlemek için gereken hesaplama gücünü sağlayarak eğitim sürelerini önemli ölçüde azaltır.
Yüksek Performanslı Bilgi İşlem (HPC): ND ailesi VM'ler, GPU hızlandırma gerektiren HPC uygulamaları için uygundur. Bilimsel araştırma, mühendislik simülasyonları (hesaplama sıvısı dinamiği gibi) ve genomik işleme gibi alanlar, ND serisi VM'lerin yüksek aktarım hızına sahip bilgi işlem özelliklerinden yararlanabilir.
Grafik İşleme: ND ailesinin GPU'ları, animasyon ve video üretimi için gerçek zamanlı işleme ve sanal gerçeklik ortamları için yüksek uygunluk simülasyonları da dahil olmak üzere yoğun grafik kullanımlı görevler için harika bir seçimdir.
Uzaktan Görselleştirme: ND ailesi VM'leri, bulut üzerinde karmaşık görselleştirmeleri işlemek ve işlemek için üst düzey GPU özelliklerinin gerekli olduğu ve daha az güçlü istemci makinelerinden erişimi kolaylaştıran veri yoğunluklu görevlerin uzaktan görselleştirmesi için kullanılabilir.
Ailedeki seriler
ND serisi V1
ND serisi sanal makineler, yapay zeka ve Derin Öğrenme iş yükleri için tasarlanmış GPU ailesine yeni bir ektir. Eğitim ve çıkarım için mükemmel performans sunar. ND örnekleri NVIDIA Tesla P40 GPU'ları ve Intel Xeon E5-2690 v4 (Broadwell) CPU'ları tarafından desteklenir. Bu örnekler, Microsoft Bilişsel Araç Seti, TensorFlow, Caffe ve diğer çerçeveleri kullanan yapay zeka iş yükleri için tek duyarlıklı kayan nokta işlemleri için mükemmel performans sağlar. Ayrıca, ND serisi çok daha büyük bir GPU bellek boyutu (24 GB) sunarak daha büyük sinir ağı modellerinin sığdırılmasına imkan tanır. NC serisinde olduğu gibi ND serisi de rdma aracılığıyla ikincil düşük gecikme süreli, yüksek aktarım hızına sahip ağ ve InfiniBand bağlantısı ile bir yapılandırma sunar, böylece birçok GPU'yu kapsayan büyük ölçekli eğitim işlerini çalıştırabilirsiniz.
Nd serisi sayfasının tamamını görüntüleyin.
Bölüm | Miktar Birim Sayısı |
Özellikleri SKU Kimliği, Performans Birimleri vb. |
---|---|---|
İşleyen | 6 - 24 vCPU | Intel Xeon E5-2690 v4 (Broadwell) [x86-64] |
Bellek | 112 - 448 GiB | |
Yerel Depolama | 1 Disk | 736 - 2948 GiB |
Uzakta Depolama | 12 - 32 Disk | 20000 - 80000 IOPS 200 - 800 MBps |
Ağ | 4 - 8 NIC | |
Hızlandırıcılar | 1 - 4 GPU | Nvidia Tesla P40 GPU (24 GB) |
NDv2 serisi
NDv2 serisi sanal makine, GPU ailesine en zorlu GPU hızlandırmalı yapay zeka, makine öğrenmesi, simülasyon ve HPC iş yüklerinin ihtiyaçları için tasarlanmış yeni bir ektir.
NDv2, her biri 32 GB GPU belleğine sahip 8 NVIDIA Tesla V100 NVLINK bağlantılı GPU ile desteklenir. Her NDv2 VM'sinde ayrıca 40 HyperThreaded olmayan Intel Xeon Platinum 8168 (Skylake) çekirdeği ve 672 GiB sistem belleği vardır.
NDv2 örnekleri CUDA GPU için iyileştirilmiş hesaplama çekirdeklerini kullanan HPC ve AI iş yükleri ile TensorFlow, Pytorch, Caffe, RAPIDS ve diğer çerçeveler gibi GPU hızlandırmayı destekleyen 'hazır' GPU hızlandırmayı destekleyen birçok yapay zeka, ML ve analiz aracı için mükemmel performans sağlar.
Kritik öneme sahip olan NDv2, hem işlem açısından yoğun ölçek büyütme (VM başına 8 GPU'yu kullanır) hem de ölçeği genişletme (birlikte çalışan birden çok VM'yi kullanma) iş yükleri için tasarlanmıştır. NDv2 serisi artık AI ve ML için dağıtılmış eğitim de dahil olmak üzere paralel senaryolar için yüksek performanslı kümeleme olanağı sağlamak için HPC VM'nin HB serisinde bulunana benzer şekilde 100 Gigabit InfiniBand EDR arka uç ağını destekliyor. Bu arka uç ağı, NVIDIA'nın NCCL2 kitaplıkları tarafından kullanılanlar da dahil olmak üzere tüm önemli InfiniBand protokollerini destekler ve GPU'ların sorunsuz bir şekilde kümelenmesine olanak tanır.
NDv2 serisi sayfasının tamamını görüntüleme
Bölüm | Miktar Birim Sayısı |
Özellikleri SKU Kimliği, Performans Birimleri vb. |
---|---|---|
İşleyen | 40 vCPU | Intel Xeon Platinum 8168 (Skylake) [x86-64] |
Bellek | 672 GiB | |
Yerel Depolama | 1 Disk | 2948 GiB |
Uzakta Depolama | 32 Disk | 80000 IOPS 800 MBps |
Ağ | 8 NIC | 24000 Mb/sn |
Hızlandırıcılar | Hiçbiri |
ND_A100_v4 serisi
ND A100 v4 serisi sanal makine (VM), Azure GPU ailesine eklenen yeni bir amiral gemisidir. Bu boyutlar üst düzey Derin Öğrenme eğitimi ve sıkı bir şekilde bağlanmış ölçeği artırma ve ölçeği genişletme HPC iş yükleri için tasarlanmıştır.
ND A100 v4 serisi tek bir VM ve sekiz NVIDIA Ampere A100 40 GB Tensor Core GPU ile başlar. ND A100 v4 tabanlı dağıtımlar, VM başına 1,6 TB/sn bağlantı bant genişliğiyle binlerce GPU'ya kadar ölçeklendirilebilir. VM içindeki her GPU kendi ayrılmış, topolojiden bağımsız 200 GB/sn NVIDIA Mellanox HDR InfiniBand bağlantısı ile sağlanır. Bu bağlantılar, aynı Azure Sanal Makine Ölçek Kümesi'ni kaplayan VM'ler arasında otomatik olarak yapılandırılır ve GPU Doğrudan RDMA'yı destekler.
Her GPU, arkalarında 96 fiziksel 2. nesil AMD Epyc™ 7V12 (Roma) CPU çekirdeği bulunan VM içinde iletişim için NVLINK 3.0 bağlantısına sahiptir.
Bu örnekler TensorFlow, Pytorch, Caffe, RAPIDS ve diğer çerçeveler gibi GPU hızlandırmayı destekleyen 'kullanıma hazır' GPU hızlandırmasını destekleyen birçok yapay zeka, ML ve analiz aracı için mükemmel performans sağlar. Buna ek olarak, ölçeği genişleten InfiniBand bağlantısı, GPU'ların sorunsuz kümelenmesi için NVIDIA'nın NCCL2 iletişim kitaplıkları üzerine oluşturulmuş çok sayıda mevcut yapay zeka ve HPC aracını destekler.
ND_A100_v4 serisi sayfasının tamamını görüntüleyin.
Bölüm | Miktar Birim Sayısı |
Özellikleri SKU Kimliği, Performans Birimleri vb. |
---|---|---|
İşleyen | 96 vCPU | AMD EPYC 7V12 (Roma) [x86-64] |
Bellek | 900 GiB | |
Yerel Depolama | 1 Disk | 6000 GiB |
Uzakta Depolama | 32 Disk | 80000 IOPS 800 MBps |
Ağ | 8 NIC | 24000 Mb/sn |
Hızlandırıcılar | 8 GPU | Nvidia A100 GPU (40 GB) |
NDm_A100_v4 serisi
NDm A100 v4 serisi sanal makine (VM), Azure GPU ailesine eklenen yeni bir amiral gemisidir. Bu boyutlar üst düzey Derin Öğrenme eğitimi ve sıkı bir şekilde bağlanmış ölçeği artırma ve ölçeği genişletme HPC iş yükleri için tasarlanmıştır.
NDm A100 v4 serisi tek bir VM ve sekiz NVIDIA Ampere A100 80 GB Tensor Core GPU ile başlar. NDm A100 v4 tabanlı dağıtımlar, VM başına 1,6 TB/sn bağlantı bant genişliğiyle binlerce GPU'ya kadar ölçeklendirilebilir. VM içindeki her GPU kendi ayrılmış, topolojiden bağımsız 200 GB/sn NVIDIA Mellanox HDR InfiniBand bağlantısı ile sağlanır. Bu bağlantılar, aynı Azure Sanal Makine Ölçek Kümesi'ni kaplayan VM'ler arasında otomatik olarak yapılandırılır ve GPU Doğrudan RDMA'yı destekler.
Her GPU, arkalarında 96 fiziksel 2. nesil AMD Epyc™ 7V12 (Roma) CPU çekirdeği bulunan VM içinde iletişim için NVLINK 3.0 bağlantısına sahiptir.
Bu örnekler TensorFlow, Pytorch, Caffe, RAPIDS ve diğer çerçeveler gibi GPU hızlandırmayı destekleyen 'kullanıma hazır' GPU hızlandırmasını destekleyen birçok yapay zeka, ML ve analiz aracı için mükemmel performans sağlar. Buna ek olarak, ölçeği genişleten InfiniBand bağlantısı, GPU'ların sorunsuz kümelenmesi için NVIDIA'nın NCCL2 iletişim kitaplıkları üzerine oluşturulmuş çok sayıda mevcut yapay zeka ve HPC aracını destekler.
NDm_A100_v4 serisi sayfasının tamamını görüntüleyin.
Bölüm | Miktar Birim Sayısı |
Özellikleri SKU Kimliği, Performans Birimleri vb. |
---|---|---|
İşleyen | 96 vCPU | AMD EPYC 7V12 (Roma) [x86-64] |
Bellek | 1900 GiB | |
Yerel Depolama | 1 Disk | 6400 GiB |
Uzakta Depolama | 32 Disk | 80000 IOPS 800 MBps |
Ağ | 8 NIC | 24000 Mb/sn |
Hızlandırıcılar | 8 GPU | Nvidia A100 GPU (80 GB) |
ND_H100_v5 serisi
ND H100 v5 serisi sanal makine (VM), Azure GPU ailesine eklenen yeni bir amiral gemisidir. Bu seri, üst düzey Derin Öğrenme eğitimi ve sıkı bir şekilde birleştirilmiş ölçek artırma ve ölçeği genişletme Üretken Yapay Zeka ve HPC iş yükleri için tasarlanmıştır.
ND H100 v5 serisi tek bir VM ve sekiz NVIDIA H100 Tensor Core GPU ile başlar. ND H100 v5 tabanlı dağıtımlar, VM başına 3,2 Tbps ara bağlantı bant genişliği ile binlerce GPU'ya kadar ölçeklendirilebilir. VM içindeki her GPU kendi ayrılmış, topolojiden bağımsız 400 Gb/sn NVIDIA Quantum-2 CX7 InfiniBand bağlantısı ile sağlanır. Bu bağlantılar, aynı sanal makine ölçek kümesini kaplayan VM'ler arasında otomatik olarak yapılandırılır ve GPU Doğrudan RDMA'yı destekler.
Her GPU, VM içindeki iletişim için NVLINK 4.0 bağlantısına sahiptir ve örnekte 96 fiziksel dördüncü Nesil Intel Xeon Ölçeklenebilir işlemci çekirdeği vardır.
Bu örnekler TensorFlow, Pytorch, Caffe, RAPIDS ve diğer çerçeveler gibi GPU hızlandırmayı destekleyen 'kullanıma hazır' GPU hızlandırmasını destekleyen birçok yapay zeka, ML ve analiz aracı için mükemmel performans sağlar. Buna ek olarak, ölçek genişletme InfiniBand bağlantısı, GPU'ların sorunsuz kümelenmesi için NVIDIA'nın NCCL iletişim kitaplıkları üzerinde oluşturulmuş olan büyük bir yapay zeka ve HPC araçlarını destekler.
ND_H100_v5 serisi sayfasının tamamını görüntüleyin.
Bölüm | Miktar Birim Sayısı |
Özellikleri SKU Kimliği, Performans Birimleri vb. |
---|---|---|
İşleyen | 96 vCPU | Intel Xeon (Safir Rapids) [x86-64] |
Bellek | 1900 GiB | |
Yerel Depolama | 1 Disk | 28000 GiB |
Uzakta Depolama | 32Disk | |
Ağ | 8 NIC | |
Hızlandırıcılar | 8 GPU | Nvidia H100 GPU (80 GB) |
ND_MI300X_v5 serisi
ND MI300X v5 serisi sanal makine (VM), Azure GPU ailesine yeni bir amiral gemisi eklenmiştir. Üst düzey Derin Öğrenme eğitimi ve sıkı bir şekilde ölçek büyütme ve ölçeği genişletme Üretken Yapay Zeka ve HPC iş yükleri için tasarlanmıştır.
ND MI300X v5 serisi VM, toplam 96 fiziksel çekirdek için sekiz AMD Instinct MI300 GPU ve iki dördüncü Nesil Intel Xeon Ölçeklenebilir işlemci ile başlar. Ardından VM içindeki her GPU, GPU başına 128 GB/sn bant genişliğine ve 896 GB/sn toplam bant genişliğine sahip 4. Nesil AMD Infinity Fabric bağlantıları aracılığıyla birbirine bağlanır.
ND MI300X v5 tabanlı dağıtımlar, VM başına 3,2 Tb/sn bağlantı bant genişliği ile binlerce GPU'ya kadar ölçeklendirilebilir. VM içindeki her GPU kendi ayrılmış, topolojiden bağımsız 400 Gb/sn NVIDIA Quantum-2 CX7 InfiniBand bağlantısı ile sağlanır. Bu bağlantılar, aynı sanal makine ölçek kümesini kaplayan VM'ler arasında otomatik olarak yapılandırılır ve GPUDirect RDMA'yı destekler.
Bu örnekler, TensorFlow, Pytorch ve diğer çerçeveler gibi "kullanıma hazır" GPU hızlandırmasını destekleyen birçok yapay zeka, ML ve analiz aracı için mükemmel performans sağlar. Buna ek olarak, ölçek genişletme InfiniBand bağlantısı, GPU'ların sorunsuz kümelenmesi için AMD'nin ROCm İletişim Kolektifleri Kitaplığı (RCCL) üzerinde oluşturulmuş çok sayıda mevcut yapay zeka ve HPC aracını destekler.
ND_MI300X_v5 serisi sayfasının tamamını görüntüleyin.
Bölüm | Miktar Birim Sayısı |
Özellikleri SKU Kimliği, Performans Birimleri vb. |
---|---|---|
İşleyen | 96 vCPU | Intel Xeon (Safir Rapids) [x86-64] |
Bellek | 1850 GiB | |
Yerel Depolama | 1 Geçici Disk 8 NVMe Diski |
1000 GiB Geçici Disk 28000 GiB NVMe Diskleri |
Uzakta Depolama | 32 Disk | 80000 IOPS 1200 MBps |
Ağ | 8 NIC | |
Hızlandırıcılar | 8 GPU | AMD Instinct MI300X GPU (192 GB) |
Önceki nesil ND ailesi serisi
Daha eski boyutlar için bkz . önceki nesil boyutlar.
Diğer boyut bilgileri
Kullanılabilir tüm boyutların listesi: Boyutlar
Fiyatlandırma Hesaplayıcısı: Fiyatlandırma Hesaplayıcısı
Disk Türleri hakkında bilgi: Disk Türleri
Sonraki adımlar
Azure işlem birimlerinin (ACU) Azure SKU'ları genelinde işlem performansını karşılaştırmanıza nasıl yardımcı olabileceği hakkında daha fazla bilgi edinin.