Serie delle dimensioni delle macchine virtuali accelerate della sottofamiglia GPU "NC"

Si applica a: ✔️ macchine virtuali Linux ✔️ macchine virtuali Windows ✔️ set di scalabilità flessibili ✔️ set di scalabilità uniformi

La serie delle dimensioni delle macchine virtuali della sottofamiglia "HC" è una delle istanze di VM ottimizzate per GPU di Azure. Sono progettati per carichi di lavoro a elevato utilizzo di calcolo, ad esempio il training dei modelli di Intelligenza artificiale e Machine Learning, HPC (High Performance Computing) e le applicazioni a elevato utilizzo di grafica. Dotato di potenti GPU NVIDIA, le macchine virtuali serie NC offrono un'accelerazione sostanziale per i processi che richiedono una potenza di calcolo elevata, tra cui deep learning, simulazioni scientifiche e rendering 3D. Ciò le rende particolarmente adatte per settori come la ricerca tecnologica, l'intrattenimento e l'ingegneria, in cui la velocità di rendering e elaborazione è fondamentale per la produttività e l'innovazione.

Carichi di lavoro e casi d’uso

Intelligenza artificiale e Machine Learning: le macchine virtuali serie NC sono ideali per il training di modelli di Machine Learning complessi e l'esecuzione di applicazioni di intelligenza artificiale. Le GPU NVIDIA offrono un'accelerazione significativa per i calcoli che fanno generalmente parte nell'apprendimento avanzato e in altre attività di training intensive.

HPC (High Performance Computing): queste macchine virtuali sono adatte per simulazioni scientifiche, rendering e altri carichi di lavoro HPC che possono essere accelerati da GPU. Campi come l'ingegneria, la ricerca medica e creazione di modelli finanziari spesso usano macchine virtuali serie NC per gestire in modo efficiente le proprie esigenze di calcolo.

Rendering della grafica: le macchine virtuali serie NC vengono usate anche per applicazioni a elevato utilizzo di grafica, tra cui video editing, rendering 3D e elaborazione grafica in tempo reale. Sono particolarmente utili in settori come lo sviluppo di videogiochi e la produzione di film.

Visualizzazione remota: per le applicazioni che richiedono funzionalità di visualizzazione molto potenti, ad esempio CAD ed effetti visivi, le macchine virtuali serie NC possono fornire la potenza GPU necessaria in remoto, consentendo agli utenti di lavorare su attività grafiche complesse senza dover usare hardware locale potente.

Simulazione e analisi: queste macchine virtuali sono adatte anche per simulazioni dettagliate e analisi in aree come i crash test automobilistici, la fluidodinamica computazionale e la creazione di modelli meteorologici, in cui le funzionalità GPU possono velocizzare notevolmente i tempi di elaborazione.

Serie in famiglia

Serie NC V1

Importante

Le macchine virtuali di Azure delle serie NC e NC_Promo verranno ritirate il 6 settembre 2023. Per altre informazioni, vedere le informazioni sul ritiro delle serie NC e NC_Promo. Per informazioni su come eseguire la migrazione dei carichi di lavoro ad altre dimensioni di macchine virtuali, vedere la guida alla migrazione dell’ambiente di calcolo GPU.

Questo annuncio di ritiro non si applica alle macchine virtuali delle serie NCv3, NCasT4v3 e NC A100 v4.

Le macchine virtuali serie NC sono basate sulla scheda NVIDIA Tesla K80 e sul processore Intel Xeon E5-2690 v3 (Haswell). Gli utenti possono elaborare i dati più velocemente sfruttando i core CUDA per eseguire l'analisi del consumo di energia delle applicazioni, simulazioni di arresto anomalo, rendering con ray tracing, Deep Learning e altro ancora. La configurazione NC24r offre un'interfaccia di rete ad alta velocità effettiva e a bassa latenza, ottimizzata per carichi di lavoro di calcolo paralleli strettamente associati.

Visualizzare la pagina completa della serie "NC".

In parte Quantità
Conteggio delle unità
Specifiche
ID SKU, unità delle prestazioni e così via.
Processore 6 - 24 vCPU Intel Xeon E5-2690 v3 (Haswell) [x86-64]
Memoria 56 - 224 GiB
Archiviazione locale 1 disco 340 - 1.440 GiB
Archiviazione remota 24 - 64 dischi
Rete 1 - 4 schede di interfaccia di rete Mbps
Acceleratori 1 - 4 GPU Nvidia Tesla K80 GPU (24GB)

Serie NCads_H100_v5

Le macchine virtuali serie NCads H100 v5 sono una nuova aggiunta alla famiglia GPU di Azure. È possibile usare questa serie per carichi di lavoro di inferenza batch e training di intelligenza artificiale applicata di Azure. Le macchine virtuali serie NCads H100 v5 sono basate su GPU NVIDIA H100 NVL e processori AMD EPYC™ di quarta generazione. Le macchine virtuali sono dotate di un massimo di 2 GPU NVIDIA H100 NVL con 94 GB di memoria, fino a 96 core del processore AMD EPYC Genova non multithreading e 640 GiB di memoria di sistema. Queste macchine virtuali sono ideali per carichi di lavoro di intelligenza artificiale applicati reali, ad esempio:

  • Analisi e database con accelerazione GPU
  • Inferenza batch con pre-elaborazione e post-elaborazione intense
  • Training del modello di autonomia
  • Simulazione di serbatoi di petrolio e gas
  • Sviluppo di Machine Learning (ML)
  • Elaborazione video
  • Servizi Web di Intelligenza artificiale/Machine Learning

Visualizzare la pagina completa della serie NCads_H100_v5.

In parte Quantità
Conteggio delle unità
Specifiche
ID SKU, unità delle prestazioni e così via.
Processore 40 - 80 vCPU AMD EPYC (Genoa) [x86-64]
Memoria 320 - 640 GiB
Archiviazione locale 1 disco 3576 - 7152 GiB
IOPS (RR)
MBps (RR)
Archiviazione remota 8 - 16 dischi 100000 - 240000 operazioni di I/O al secondo
3000 - 7000 MBps
Rete 2 - 4 schede di interfaccia di rete 40000 - 80000 Mbps
Acceleratori 1 - 2 GPU Nvidia PCIe H100 GPU (94GB)

serie NCCads_H100_v5

La serie NCCads H100 v5 delle macchine virtuali è una nuova aggiunta alla famiglia gpu di Azure. In questo SKU della macchina virtuale, Trusted Execution Environment (TEE) si estende su una macchina virtuale riservata nella CPU e nella GPU collegata, consentendo l'offload sicuro di dati, modelli e calcolo nella GPU. La serie NCCads H100 v5 è basata su processori AMD EPYC™ Di terza generazione e GPU NVIDIA H100 Tensor Core. Queste macchine virtuali includono 1 GPU NVIDIA H100 NVL con 94 GB di memoria, 40 core del processore AMD EPYC Genova non multithreading e 320 GiB di memoria di sistema. Queste macchine virtuali sono ideali per carichi di lavoro di intelligenza artificiale applicati reali, ad esempio:

  • Analisi e database con accelerazione GPU
  • Inferenza batch con pre-elaborazione e post-elaborazione intense
  • Sviluppo di Machine Learning (ML)
  • Elaborazione video
  • Servizi Web di Intelligenza artificiale/Machine Learning

Visualizzare la pagina completa della serie NCCads_H100_v5.

In parte Quantità
Conteggio delle unità
Specifiche
ID SKU, unità delle prestazioni e così via.
Processore 40 vCPU AMD EPYC (Genoa) [x86-64]
Memoria 320 GiB
Archiviazione locale 1 disco 800 GiB
Archiviazione remota 8 dischi 100000 operazioni di I/O al secondo
3000 MBps
Rete 2 schede di interfaccia di rete 40000 Mbps
Acceleratori 1 GPU GPU Nvidia H100 (94 GB)

Serie NCv2

Importante

Le macchine virtuali di Azure della serie NCv2 verranno ritirate il 6 settembre 2023. Per altre informazioni, vedere le informazioni sul ritiro della serie NCv2. Per informazioni su come eseguire la migrazione dei carichi di lavoro ad altre dimensioni di macchine virtuali, vedere la guida alla migrazione dell’ambiente di calcolo GPU.

Questo annuncio di ritiro non si applica alle macchine virtuali delle serie NCv3, NCasT4v3 e NC A100 v4.

Le macchine virtuali serie NCv2 sono basate sulle GPU NVIDIA Tesla P100. Queste GPU possono offrire prestazioni di calcolo più che raddoppiate rispetto a quelle della serie NC. I clienti possono sfruttare i vantaggi di queste GPU aggiornate per carichi di lavoro HPC tradizionali, come la modellazione delle riserve, il sequenziamento del DNA, l'analisi di proteine, le simulazioni Monte Carlo e altro ancora. Oltre alle GPU, le MACCHINE virtuali serie NCv2 sono basate anche sulle CPU Intel Xeon E5-2690 v4 (Broadwell). La configurazione NC24rs v2 offre un'interfaccia di rete ad alta velocità effettiva e a bassa latenza, ottimizzata per carichi di lavoro di calcolo paralleli strettamente associati.

Visualizzare la pagina completa della serie NCv2.

In parte Quantità
Conteggio delle unità
Specifiche
ID SKU, unità delle prestazioni e così via.
Processore 6 - 24 vCPU Intel Xeon E5-2690 v4 (Broadwell) [x86-64]
Memoria 112 - 448 GiB
Archiviazione locale 1 disco 736 - 2948 GiB
Archiviazione remota 12 - 32 dischi 20000 - 80000 operazioni di I/O al secondo
200 - 800 MBps
Rete 4 - 8 schede di interfaccia di rete
Acceleratori 1 - 4 GPU Nvidia Tesla P100 GPU (16GB)

Serie NCv3

Le macchine virtuali serie NCv3 sono basate sulle GPU NVIDIA Tesla V100. Queste GPU possono offrire prestazioni di calcolo una volta e mezzo superiori rispetto a quelle della serie NCv2. I clienti possono sfruttare i vantaggi di queste GPU aggiornate per carichi di lavoro HPC tradizionali, come la modellazione delle riserve, il sequenziamento del DNA, l'analisi di proteine, le simulazioni Monte Carlo e altro ancora. La configurazione NC24rs v3 offre un'interfaccia di rete ad alta velocità effettiva e a bassa latenza, ottimizzata per carichi di lavoro di calcolo paralleli strettamente associati. Oltre alle GPU, le MACCHINE virtuali serie NCv3 sono basate anche sulle CPU Intel Xeon E5-2690 v4 (Broadwell).

Importante

Per questa serie di macchine virtuali la quota di vCPU (core) nella sottoscrizione è impostata inizialmente su 0 in ogni area. Richiedere un aumento della quota di vCPU per questa serie in un'area disponibile. Questi SKU non sono disponibili per le sottoscrizioni di Azure per la versione di valutazione o per Sottoscrittore di Visual Studio. Il livello di sottoscrizione potrebbe non supportare la selezione o la distribuzione di questi SKU.

Visualizzare la pagina completa della serie NCv3.

In parte Quantità
Conteggio delle unità
Specifiche
ID SKU, unità delle prestazioni e così via.
Processore 6 - 24 vCPU Intel Xeon E5-2690 v4 (Broadwell) [x86-64]
Memoria 112 - 448 GiB
Archiviazione locale 1 disco 736 - 2948 GiB
IOPS (RR)
MBps (RR)
Archiviazione remota 12 - 32 dischi 20000 - 80000 operazioni di I/O al secondo
200 - 800 MBps
Rete 4 - 8 schede di interfaccia di rete Mbps
Acceleratori 1 - 4 Nvidia Tesla V100 GPU (16GB)

Serie NCasT4_v3

Le macchine virtuali della serie NCasT4_v3 sono basate su GPU Nvidia Tesla T4 e CPU AMD EPYC 7V12(Rome). Le macchine virtuali dispongono di un massimo di 4 GPU NVIDIA T4 con 16 GB di memoria ciascuna, fino a 64 core non multithread AMD EPYC 7V12 (Rome) (frequenza di base di 2,45 GHz, frequenza massima di tutti i core di 3,1 GHz e frequenza di picco a core singolo di 3,3 GHz) e 440 GiB di memoria di sistema. Queste macchine virtuali sono ideali per la distribuzione di servizi di intelligenza artificiale, ad esempio l'inferenza in tempo reale delle richieste generate dall'utente o per carichi di lavoro interattivi di grafica e visualizzazione usando il driver GRID di NVIDIA e la tecnologia GPU virtuale. I carichi di lavoro di calcolo GPU standard basati su CUDA, TensorRT, Caffe, ONNX e altri framework o applicazioni grafiche con accelerazione GPU basate su OpenGL e DirectX, possono essere distribuiti economicamente, molto vicini agli utenti, nella serie NCasT4_v3.

Visualizzare la pagina completa della serie NCasT4_v3.

In parte Quantità
Conteggio delle unità
Specifiche
ID SKU, unità delle prestazioni e così via.
Processore 4 - 64 vCPU AMD EPYC 7V12 (Rome) [x86-64]
Memoria 28 - 440 GiB
Archiviazione locale 1 disco 176 - 2816 GiB
IOPS (RR)
MBps (RR)
Archiviazione remota 8 - 32 dischi IOPS
MBps
Rete 2 - 8 schede di interfaccia di rete 8000 - 32000 Mbps
Acceleratori 1 - 4 GPU Nvidia Tesla T4 GPU (16GB)

NC_A100_v4-series

La macchina virtuale della serie NC A100 v4 è una nuova aggiunta alla famiglia GPU di Azure. È possibile usare questa serie per carichi di lavoro di inferenza batch e training di intelligenza artificiale applicata di Azure. La serie NC A100 v4 è basata su processori GPU NVIDIA A100 PCIe e processori AMD EPYC™ 7V13 (Milan). Le macchine virtuali includono fino a 4 GPU NVIDIA A100 PCIe con 80 GB di memoria, fino a 96 core non multithread AMD EPYC Milan e 880 GiB di memoria di sistema. Queste macchine virtuali sono ideali per carichi di lavoro di intelligenza artificiale applicati reali, ad esempio:

Analisi e database con accelerazione GPU Inferenza batch con pre-elaborazione e post-elaborazione intense Training del modello di autonomia Simulazione di serbatoi di petrolio e gas Sviluppo di Machine Learning (ML) Elaborazione video Servizi Web di intelligenza artificiale/Machine Learning

Visualizzare la paginacompleta della serie NC_A100_v4.

In parte Quantità
Conteggio delle unità
Specifiche
ID SKU, unità delle prestazioni e così via.
Processore 24 - 96 vCPU AMD EPYC 7V13 (Milan) [x86-64]
Memoria 220 - 880 GiB
Archiviazione locale 1 disco temporaneo
1 - 4 dischi NVMe
Dischi temporanei da 64 - 256 GiB
Dischi NVMe da 960 TiB
Archiviazione remota 8 - 32 dischi 30000 - 120000 operazioni di I/O al secondo
1000 - 4000 MBps
Rete 2 - 8 schede di interfaccia di rete 20000 - 80000 Mbps
Acceleratori 1 - 4 GPU Nvidia PCIe A100 GPU (80GB)

Serie della famiglia NP di generazione precedente

Per le dimensioni precedenti, vedere Dimensioni delle generazioni precedenti.

Altre informazioni sulle dimensioni

Elenco di tutte le dimensioni disponibili: Dimensioni

Calcolatore dei prezzi: Calcolatore dei prezzi

Informazioni sui tipi di dischi: Tipi di dischi

Passaggi successivi

Altre informazioni su come le unità di calcolo di Azure consentono di confrontare le prestazioni di calcolo negli SKU di Azure.

Vedere host dedicati di Azure per i server fisici in grado di ospitare una o più macchine virtuali assegnate a una sottoscrizione di Azure.

Informazioni su come Monitorare le macchine virtuali di Azure.