"ND" サブファミリ GPU 高速化仮想マシン サイズ シリーズ

適用対象: ✔️ Linux VM ✔️ Windows VM ✔️ フレキシブル スケール セット ✔️ 均一スケール セット

"ND" サブファミリの VM サイズ シリーズは、Azure の GPU アクセラレーション VM インスタンスの 1 つです。 強力な GPU アクセラレーションの恩恵を受けるディープ ラーニング、AI 研究、ハイパフォーマンス コンピューティング タスク向けに設計されています。 NVIDIA GPU を搭載した ND シリーズ VM は、複雑な機械学習モデルのトレーニングと推論に特化した機能を提供し、計算の高速化と大規模なデータセットの効率的な処理が容易になります。 そのため、AI 開発とシミュレーションにおける学術および商用アプリケーションに特に適しています。このような場合、ニューラル ネットワーク処理やその他の計算量の多いタスクで迅速かつ正確な結果を達成するには、最先端の GPU テクノロジが不可欠です。

ワークロードとユース ケース

AI とディープ ラーニング: ND ファミリ VM は、複雑なディープ ラーニング モデルのトレーニングとデプロイに最適です。 強力な NVIDIA GPU を搭載し、大規模なデータセットを使った広範なニューラル ネットワーク トレーニングの処理に必要な計算能力を備えているため、トレーニング時間を大幅に短縮できます。

ハイパフォーマンス コンピューティング (HPC): ND ファミリ VM は、GPU アクセラレーションを必要とする HPC アプリケーションに適しています。 科学研究、エンジニアリング シミュレーション (計算流体力学など)、ゲノム処理などの分野では、ND シリーズ VM の高スループット計算機能の恩恵を受けることができます。

グラフィックス レンダリング: ND ファミリの GPU は、アニメーションや動画制作のリアルタイム レンダリング、仮想現実環境の高忠実度シミュレーションなど、グラフィックスを多用するタスクに最適です。

リモート視覚化: ND ファミリ VM は、データ集中型タスクのリモート視覚化に使用できます。このような場合、クラウド上で複雑な視覚化を処理およびレンダリングし、性能の低いクライアント マシンからのアクセスを容易にするには、ハイエンド GPU 機能が必要です。

ファミリ内のシリーズ

ND シリーズ V1

ND シリーズは、AI やディープ ラーニングのワークロードを想定して GPU ファミリーに新たに追加された仮想マシンです。 トレーニングや推論で優れたパフォーマンスを発揮します。 ND インスタンスは、NVIDIA Tesla P40 GPU および Intel Xeon E5-2690 v4 (Broadwell) CPU を搭載しています。 これらのインスタンスは、Microsoft Cognitive Toolkit、TensorFlow、Caffe などのフレームワークを活用する AI ワークロードの単精度浮動小数点演算において、非常に高いパフォーマンスを発揮します。 ND シリーズでは GPU のメモリ サイズ (24 GB) も大幅に増強されているため、より大規模なニューラル ネット モデルにも対応できます。 NC シリーズと同様に、ND シリーズでは 2 番目に少ない待機時間、RDMA を利用した高スループットのネットワーク、InfiniBand との接続性などを備えた構成が利用できます。これにより、多数の GPU を利用した大規模なトレーニング ジョブを実行できます。

ND シリーズの詳細ページを表示する

部分 Quantity
数値 単位
仕様
SKU ID、パフォーマンス 単位など。
プロセッサ 6 - 24仮想コア Intel® Xeon® E5-2690 v4 (Broadwell)
メモリ 112 - 448GiB
データ ディスク数 12 - 32ディスク 20000 - 80000IOPS / 200 - 800MBps
ネットワーク 4 - 8NIC
アクセラレータ 1 - 4GPU NVIDIA Tesla P40 24GiB
VM あたり 24 - 96GiB

NDv2 シリーズ

NDv2 シリーズは、きわめて要求の厳しい GPU アクセラレーション AI、機械学習、シミュレーション、HPC ワークロードのニーズに合わせて設計された GPU ファミリに新たに追加された仮想マシンです。 NDv2 は、それぞれ 32 GB の GPU メモリを搭載した、NVIDIA Tesla V100 NVLINK 接続の GPU を 8 個備えています。 また、各 NDv2 VM には、ハイパースレッド非対応の Intel Xeon Platinum 8168 (Skylake) コアが 40 個と 672 GiB のシステム メモリが備わっています。 NDv2 インスタンスは、CUDA GPU 最適化計算カーネルと、GPU アクセラレーションを "標準" でサポートするさまざまな AI、ML、分析ツール (TensorFlow、Pytorch、Caffe、RAPIDS フレームワークなど) を活用して、HPC や AI ワークロードで優れたパフォーマンスを発揮します。 特筆すべき点として、NDv2 は、計算量の多いワークロードのスケールアップ (VM あたり 8 個の GPU を使用) とスケールアウト (複数の VM を連携) の両方に対応するように構築されています。 NDv2 シリーズは現在、HB シリーズの HPC VM と同様の 100 Gigabit InfiniBand EDR バックエンド ネットワークをサポートしており、ハイパフォーマンスのクラスタリングによって、AI と ML の分散トレーニングを含む並列シナリオに対応します。 このバックエンド ネットワークは、NVIDIA の NCCL2 ライブラリで採用されているプロトコルも含め、主要な InfiniBand プロトコルをすべてサポートしているため、GPU のシームレスなクラスタリングが実現します。

NDv2 シリーズの詳細ページを表示する

部分 Quantity
数値 単位
仕様
SKU ID、パフォーマンス 単位など。
プロセッサ 40仮想コア Intel® Xeon® Platinum 8168 (Skylake)
メモリ 672GiB
データ ディスク数 32ディスク 80000IOPS / 800MBps
ネットワーク 8NIC 24000Mbps
アクセラレータ 8GPU NVIDIA V100 (NVLink) 32GiB
VM あたり 256GiB

ND_A100_v4 シリーズ

ND A100 v4 シリーズの仮想マシン (VM) は、Azure GPU ファミリに新たに追加された主力製品です。 これは、ハイエンドのディープ ラーニング トレーニングと密結合のスケールアップおよびスケールアウト HPC ワークロード向けに設計されています。 ND A100 v4 シリーズは、単一の VM と 8 つの NVIDIA Ampere A100 40GB Tensor Core GPU から始まります。 ND A100 v4 ベースのデプロイでは、VM あたり 1.6 TB/秒の相互接続帯域幅を備えた数千の GPU までスケールアップできます。 VM 内の各 GPU には、トポロジに依存しない専用の 200 GB/秒 NVIDIA Mellanox HDR InfiniBand 接続が用意されています。 これらの接続は、同じ仮想マシンスケール セットを占有する VM 間で自動的に構成され、GPUDirect RDMA をサポートします。 各 GPU は、VM 内の通信用に NVLINK 3.0 接続を備えており、インスタンスは 96 個の物理第 2 世代 AMD Epyc™ 7V12 (Rome) CPU コアに支えられています。 これらのインスタンスは、GPU アクセラレーションを "標準" でサポートするさまざまな AI、ML、分析ツール (TensorFlow、Pytorch、Caffe、RAPIDS、そのほかのフレームワークなど) を活用して、優れたパフォーマンスを発揮します。 さらに、GMU のシームレスなクラスタリング用に NVIDIA の NCCL2 通信ライブラリに基づいて構築された、既存の AI および HPC ツールの大規模なセットによって、スケールアウト InfiniBand 相互接続がサポートされています。

ND_A100_v4 シリーズの詳細ページを表示する

部分 Quantity
数値 単位
仕様
SKU ID、パフォーマンス 単位など。
プロセッサ 96仮想コア AMD Epyc™ 7V12 (Rome)
メモリ 900GiB
データ ディスク数 32ディスク 80000IOPS / 800MBps
ネットワーク 8 NIC 24000Mbps
アクセラレータ 8GPU NVIDIA A100 (NVLink) 40GiB
VM あたり 320GiB

NDm_A100_v4 シリーズ

NDm A100 v4 シリーズの仮想マシン (VM) は、Azure GPU ファミリに新たに追加された主力製品です。 これは、ハイエンドのディープ ラーニング トレーニングと密結合のスケールアップおよびスケールアウト HPC ワークロード向けに設計されています。 NDm A100 v4 シリーズは、単一の VM と 8 つの NVIDIA Ampere A100 80GB Tensor Core GPU から始まります。 NDm A100 v4 ベースのデプロイでは、VM あたり 1.6 TB/秒の相互接続帯域幅を備えた数千の GPU までスケールアップできます。 VM 内の各 GPU には、トポロジに依存しない専用の 200 GB/秒 NVIDIA Mellanox HDR InfiniBand 接続が用意されています。 これらの接続は、同じ仮想マシンスケール セットを占有する VM 間で自動的に構成され、GPUDirect RDMA をサポートします。 各 GPU は、VM 内の通信用に NVLINK 3.0 接続を備えており、インスタンスは 96 個の物理第 2 世代 AMD Epyc™ 7V12 (Rome) CPU コアに支えられています。 これらのインスタンスは、GPU アクセラレーションを "標準" でサポートするさまざまな AI、ML、分析ツール (TensorFlow、Pytorch、Caffe、RAPIDS、そのほかのフレームワークなど) を活用して、優れたパフォーマンスを発揮します。 さらに、GMU のシームレスなクラスタリング用に NVIDIA の NCCL2 通信ライブラリに基づいて構築された、既存の AI および HPC ツールの大規模なセットによって、スケールアウト InfiniBand 相互接続がサポートされています。

NDm_A100_v4 シリーズの詳細ページを表示する

部分 Quantity
数値 単位
仕様
SKU ID、パフォーマンス 単位など。
プロセッサ 96仮想コア AMD Epyc™ 7V12 (Rome)
メモリ 900GiB
データ ディスク数 32ディスク 80000IOPS / 800MBps
ネットワーク 8NIC 24000Mbps
アクセラレータ 8GPU NVIDIA A100 (NVLink) 80GiB
VM あたり 640GiB

ND_H100_v5 シリーズ

ND H100 v5 シリーズの仮想マシン (VM) は、Azure GPU ファミリに新たに追加された主力製品です。 これは、ハイエンドのディープ ラーニング トレーニング、および、生成 AI と HPC ワークロードの密結合スケールアップおよびスケールアウト向けに設計されています。 ND H100 v5 シリーズは、単一の VM と 8 つの NVIDIA H100 Tensor Core GPU から始まります。 ND H100 v5 ベースのデプロイでは、VM あたり 3.2 Tb/秒の相互接続帯域幅を備えた数千の GPU までスケールアップできます。 VM 内の各 GPU には、トポロジに依存しない専用の 400 Gb/秒 NVIDIA Quantum-2 CX7 InfiniBand 接続が用意されています。 これらの接続は、同じ仮想マシンスケール セットを占有する VM 間で自動的に構成され、GPUDirect RDMA をサポートします。 各 GPU は、VM 内の通信用に NVLINK 4.0 接続を備え、インスタンスは 96 個の物理第 4 世代 Intel Xeon スケーラブル プロセッサ コアに支えられています。 これらのインスタンスは、GPU アクセラレーションを "標準" でサポートするさまざまな AI、ML、分析ツール (TensorFlow、Pytorch、Caffe、RAPIDS、そのほかのフレームワークなど) を活用して、優れたパフォーマンスを発揮します。 さらに、GMU のシームレスなクラスタリング用に NVIDIA の NCCL 通信ライブラリに基づいて構築された、既存の AI および HPC ツールの大規模なセットによって、スケールアウト InfiniBand 相互接続がサポートされています。

ND_H100_v5 シリーズの詳細ページを表示する

部分 Quantity
数値 単位
仕様
SKU ID、パフォーマンス 単位など。
プロセッサ 96仮想コア Intel® Xeon® Scalable (Sapphire Rapids)
メモリ 1900GiB
データ ディスク数 32ディスク 40800IOPS / 612MBps
ネットワーク 8NIC 80000Mbps
アクセラレータ 8GPU NVIDIA H100 (NVLink) 80GiB
VM あたり 640GiB

ND_MI300X_v5 シリーズ

ND MI300X v5 シリーズの仮想マシン (VM) は、Azure GPU ファミリに新たに追加された主力製品です。 これは、ハイエンドのディープ ラーニング トレーニング、および密接に関連したスケールアップおよびスケールアウト生成 AI と HPC ワークロード向けに設計されました。

ND MI300X v5 シリーズ VM の初期状態は、8 個の AMD Instinct MI300 GPU と合計の物理コア数が 96 個となる 2 個の第 4 世代 Intel Xeon スケーラブル プロセッサとなります。 そして、VM 内の各 GPU は、GPU あたり 128 GB/秒の帯域幅と 896 GB/秒の合計帯域幅を持つ第 4 世代 AMD Infinity Fabric リンクを介して相互に接続されます。

ND MI300X v5 ベースのデプロイは、VM あたり 3.2 Tb/秒の相互接続帯域幅を備える数千個の GPU までスケールアップできます。 VM 内の各 GPU には、トポロジに依存しない専用の 400 Gb/秒 NVIDIA Quantum-2 CX7 InfiniBand 接続が用意されています。 これらの接続は、同じ仮想マシンスケール セットを占有する VM 間で自動的に構成され、GPUDirect RDMA をサポートします。

これらのインスタンスは、GPU アクセラレーションを "標準" でサポートするさまざまな AI、ML、分析ツール (TensorFlow、Pytorch、その他のフレームワーク) のための優れたパフォーマンスを発揮します。 さらに、スケールアウト InfiniBand 相互接続は、GPU のシームレスなクラスタリングのために、AMD の ROCm Communication Collectives Library (RCCL) 上に構築された既存の AI および HPC ツールの大規模なセットをサポートします。

ND_MI300X_v5 シリーズの詳細ページを表示する

部分 Quantity
数値 単位
仕様
SKU ID、パフォーマンス 単位など。
プロセッサ 96 仮想コア Intel® Xeon® Scalable (Sapphire Rapids)
メモリ 1850 GiB
ローカル ストレージ 1 個のディスク 1000 GiB
リモート ディスク 32 個のディスク 40800 IOPS
612 Mbps
ネットワーク 8 NIC 80000 Mbps
アクセラレータ 8 GPU AMD MI300X 192 GiB
VM あたり 1535 GiB

前世代の ND ファミリ シリーズ

以前のサイズについては、前世代のサイズを参照してください。

サイズに関するその他の情報

利用可能なすべてのサイズのリスト: サイズ

料金計算ツール: 料金計算ツール

ディスクの種類の情報: ディスクの種類

次のステップ

Azure コンピューティング ユニット (ACU) を確認することで、Azure SKU 全体の処理性能を比較できます。

1 つの Azure サブスクリプションに割り当てられた 1 つ以上の仮想マシンをホストできる物理サーバーについては、Azure 専用ホストを確認してください。

Azure Virtual Machines を監視する方法をご確認ください。