HBv2 シリーズの仮想マシンのサイズ

適用対象: ✔️ Linux VM ✔️ Windows VM ✔️ フレキシブル スケール セット ✔️ 均一スケール セット

HBv2 シリーズのサイズの VM については、いくつかのパフォーマンス テストが実行されています。 このパフォーマンス テストの結果の一部を次に示します。

ワークロード HBv2
STREAM Triad 350 GB/秒 (CCX あたり 21-23 GB/秒)
High-Performance Linpack (HPL) 4 テラフロップス (Rpeak、FP64)、8 テラフロップス (Rpeak、FP32)
RDMA の待機時間と帯域幅 1.2 マイクロ秒、190 Gb/秒
ローカル NVMe SSD 上の FIO 2.7 GB/秒の読み取り、1.1 GB/秒の書き込み。102k IOPS 読み取り、115 IOPS 書き込み
8 * Azure Premium SSD 上の IOR (P40 Managed Disks、RAID0)** 1.3 GB/秒の読み取り、2.5 GB/書き込み。101k IOPS 読み取り、105k IOPS 書き込み

MPI 待機時間

OSU マイクロベンチマーク スイートからの MPI 待機時間テストが実行されます。 サンプル スクリプトは GitHub にあります。

./bin/mpirun_rsh -np 2 -hostfile ~/hostfile MV2_CPU_MAPPING=[INSERT CORE #] ./osu_latency

MPI 待機時間のスクリーンショット。

MPI 帯域幅

OSU マイクロベンチマーク スイートからの MPI 帯域幅テストが実行されます。 サンプル スクリプトは GitHub にあります。

./mvapich2-2.3.install/bin/mpirun_rsh -np 2 -hostfile ~/hostfile MV2_CPU_MAPPING=[INSERT CORE #] ./mvapich2-2.3/osu_benchmarks/mpi/pt2pt/osu_bw

MPI 帯域幅のスクリーンショット。

Mellanox Perftest

Mellanox Perftest パッケージには、待機時間 (ib_send_lat) や帯域幅 (ib_send_bw) などの多くの InfiniBand テストがあります。 コマンドの例を次に示します。

numactl --physcpubind=[INSERT CORE #]  ib_send_lat -a

次の手順