Übersicht über virtuelle Computer der HBv3-Serie

Gilt für: ✔️ Linux VMs ✔️ Windows VMs ✔️ Flexible Skalensätze ✔️ Einheitliche Skalensätze

Ein Server der HBv3-Serie verfügt über 2 * 64-Core EPYC 7V73X CPUs für insgesamt 128 physische „Zen3“-Cores mit AMD 3D V-Cache. Das simultane Multithreading (SMT) ist bei HBv3 deaktiviert. Diese 128 Kerne sind in 16 Abschnitte (8 pro Socket) unterteilt, wobei jeder Abschnitt 8 Prozessorkerne mit einheitlichem Zugriff auf einen 96 MB-L3-Cache enthält. Außerdem gelten für Azure-Server der HBv3-Serie die folgenden AMD-BIOS-Einstellungen:

Nodes per Socket (NPS) = 2
L3 as NUMA = Disabled
NUMA domains within VM OS = 4
C-states = Enabled

Folglich startet der Server mit vier NUMA-Domänen (2 pro Socket). Jede Domäne hat eine Größe von 32 Kernen. Jede NUMA-Domäne verfügt über direkten Zugriff auf vier Kanäle mit physischem DRAM und einer Geschwindigkeit von 3.200 MT/s.

Damit der Azure-Hypervisor über genügend Platz verfügt, um ohne Beeinträchtigung des virtuellen Computers agieren zu können, werden 8 physische Kerne pro Server reserviert.

Topologie des virtuellen Computers

In der folgenden Abbildung wird die Topologie für diesen Server veranschaulicht: Wir halten diese 8 Hypervisor-Host Kerne (gelb) symmetrisch über beide CPU-Sockets hinweg frei, wobei die ersten 2 Kerne aus bestimmten Core Complex-Matrizen (CCDs) für jede NUMA-Domäne mit den verbleibenden Kernen für den virtuellen Computer der HBv3-Serie (grün) genommen werden.

Topologie des Servers der HBv3-Serie

Beachten Sie, dass die CCD-Grenze nicht mit einer NUMA-Grenze übereinstimmt. Auf HBv3 wird eine Gruppe von vier (4) aufeinander folgenden CCDs als NUMA-Domäne konfiguriert, sowohl auf der Hostserverebene als auch innerhalb einer Gast-VM. Daher machen alle HBv3-VM-Größen 4 NUMA-Domänen verfügbar, die einem Betriebssystem und einer Anwendung wie dargestellt angezeigt werden. 4 einheitliche NUMA-Domänen, jede mit einer unterschiedlichen Anzahl von Kernen, abhängig von der angegebenen HBv3-VM-Größe.

Topologie der HBv3-Serie der virtuellen Computer

Jede HBv3-Größe der virtuellen Computer ähnelt dem physischen Layout, den Features und der Leistung einer anderen CPU von der AMD EPYC 7003-Serie wie folgt:

HBv3-Serie der virtuellen Computer NUMA-Domänen Kerne pro NUMA-Domäne Ähnlichkeit mit AMD EPYC
Standard_HB120rs_v3 4 30 Dual-Socket EPYC 7773X
Standard_HB120-96rs_v3 4 24 Dual-Socket EPYC 7643
Standard_HB120-64rs_v3 4 16 Dual-Socket EPYC 7573X
Standard_HB120-32rs_v3 4 8 Dual-Socket EPYC 7373X
Standard_HB120-16rs_v3 4 4 Dual-Socket EPYC 72F3

Hinweis

Bei VM-Größen mit eingeschränkten Kernen wird nur die Anzahl der physischen Kerne verringert, die für den virtuellen Computer verfügbar sind. Alle global freigegebenen Ressourcen (RAM, Arbeitsspeicher-Bandbreite, L3-Cache, GMI- und xGMI-Konnektivität, InfiniBand, Azure Ethernet-Netzwerk, lokales SSD) bleiben konstant. Dadurch können Kunden die am besten auf eine bestimmte Gruppe von Workloads oder bestimmte Softwarelizenzierungsanforderungen zugeschnittene VM-Größe auswählen.

Die virtuelle NUMA-Zuordnung der einzelnen HBv3-VM-Größen wird der zugrunde liegenden physischen NUMA-Topologie zugeordnet. Es gibt keine möglicherweise irreführende Abstraktion der Hardware-Topologie.

Die genaue Topologie für die verschiedenen HBv3-VM-Größen gemäß der Verwendung der Ausgabe von Istopo sieht wie folgt aus:

lstopo-no-graphics --no-io --no-legend --of txt

Klicken Sie, um die lstopo-Ausgabe für Standard_HB120rs_v3 anzuzeigen

lstopo-Ausgabe für virtuellen Computer HBv3-120

Klicken Sie, um die lstopo-Ausgabe für Standard_HB120rs-96_v3 anzuzeigen.

lstopo-Ausgabe für virtuellen Computer HBv3-96

Klicken Sie, um die lstopo-Ausgabe für Standard_HB120rs-64_v3 anzuzeigen.

lstopo-Ausgabe für virtuellen Computer HBv3-64

Klicken Sie, um die lstopo-Ausgabe für Standard_HB120rs-32_v3 anzuzeigen.

lstopo-Ausgabe für virtuellen Computer HBv3-32

Klicken Sie, um die lstopo-Ausgabe für Standard_HB120rs-16_v3 anzuzeigen.

lstopo-Ausgabe für virtuellen Computer HBv3-16

InfiniBand-Netzwerk

HBv3-VMS verfügen auch über Nvidia Mellanox-Netzwerkadapter (ConnectX-6) mit InfiniBand (HDR) mit bis zu 200 Gigabits/Sek. Die NIC wird über SR-IOV an die VM übermittelt und ermöglicht dem Netzwerkdatenverkehr so, den Hypervisor zu umgehen. Demzufolge laden Kunden Mellanox-OFED-Standardtreiber wie eine Bare-Metal-Umgebung auf HBv3-VMs.

HBv3-VMs unterstützen adaptives Routing, DCT (Dynamic Connected Transport, zusätzlich zu RC- und UD-Standardtransporten) und die hardwarebasierte Entladung von MPI-Kollektiven auf den Onboard-Prozessor des ConnectX-6-Adapters. Diese Features verbessern die Anwendungsleistung, Skalierbarkeit und Konsistenz, und ihre Verwendung wird empfohlen.

Temporärer Speicher

HBv3-VMs verfügen über 3 physisch lokale SSD-Geräte. Ein Gerät wird vorformatiert, um als Auslagerungsdatei zu dienen, und es erscheint in Ihrer VM als generisches „SSD“-Gerät.

Zwei weitere größere SSDs werden als unformatierte NVMe-Blockgeräte über NVMeDirect bereitgestellt. Da das NVMe-Blockgerät den Hypervisor umgeht, weist es eine höhere Bandbreite, höheren IOPS und eine geringere Wartezeit pro IOP auf.

Bei einer Kombination in einem verteilten Array bietet das NVMe-SSD-Gerät bis zu 7 GB/s für Lesevorgänge und 3 GB/s für Schreibvorgänge sowie 186.000 IOPS (Lesevorgänge) und 201.000 IOPS (Schreibvorgänge) für große Warteschlangentiefen.

Hardwarespezifikationen

Hardwarespezifikationen VMs der HBv3-Serie
Kerne 120, 96, 64, 32 oder 16 (SMT deaktiviert)
CPU AMD EPYC 7V73X
CPU-Frequenz (ohne AVX) 3,0 GHz (alle Kerne), 3,5 GHz (bis zu 10 Kerne)
Arbeitsspeicher 448 GB (RAM pro Kern je nach VM-Größe)
Lokaler Datenträger 2 × 960 GB NVMe (Block), 480 GB SSD (Auslagerungsdatei)
InfiniBand 200 GB/s Mellanox ConnectX-6 HDR InfiniBand
Netzwerk 50 GBit/s Ethernet (davon 40 GBit/s nutzbar); Azure-SmartNIC der zweiten Generation

Softwarespezifikationen

Softwarespezifikationen VMs der HBv3-Serie
Maximale MPI-Auftragsgröße 36 000 Kerne (300 VMs in einer einzelnen VM-Skalierungsgruppe mit singlePlacementGroup=true)
MPI-Unterstützung HPC-X, Intel MPI, OpenMPI, MVAPICH2, MPICH
Zusätzliche Frameworks UCX, libfabric und PGAS
Azure Storage-Unterstützung Standard- und Premium-Datenträger (maximal 32 Datenträger)
Betriebssystemunterstützung für SR-IOV/RDMA RHEL 7.9+, Ubuntu 18.04+, SLES 15.4, WinServer 2016+
Empfohlenes Betriebssystem für die Leistung Windows Server 2019 und höher
Orchestratorunterstützung Azure CycleCloud, Azure Batch, AKS; Cluster-Konfigurationsoptionen

Hinweis

Windows Server 2012 R2 wird auf HBv3 und anderen VMs mit mehr als 64 (virtuellen oder physischen) Kernen nicht unterstützt. Weitere Informationen finden Sie unter Unterstützte Windows-Gastbetriebssysteme für Hyper-V in Windows Server.

Wichtig

Dieses Dokument verweist auf eine Releaseversion von Linux, die sich dem Ende des Lebenszyklus (End of Life, EOL) nähert oder es erreicht hat. Erwägen Sie ein Update auf eine aktuellere Version.

Nächste Schritte