Planen der GPU-Beschleunigung in Windows Server

In diesem Artikel werden die in Windows Server verfügbaren Funktionen zur Grafikvirtualisierung vorgestellt.

Verwenden von GPU-Beschleunigung

Je nach Workload sollten Sie möglicherweise eine GPU-Beschleunigung in Betracht ziehen. Folgendes sollten Sie beachten, bevor Sie sich für GPU-Beschleunigung entscheiden:

  • App- und Desktop-Remoting-Workloads (VDI/DaaS): Wenn Sie einen App- oder Desktop-Remoting-Dienst mit Windows Server erstellen, berücksichtigen Sie den Katalog der Apps, die Ihre Benutzer voraussichtlich ausführen werden. Einige Arten von Apps, z. B. CAD/CAM-Apps, Simulations-Apps, Spiele und Rendering-/Visualisierungs-Apps, basieren in hohem Maß auf 3D-Rendering, um eine reibungslose und reaktionsschnelle Interaktivität zu ermöglichen. Die meisten Kunden sehen GPUs als Notwendigkeit für eine angemessene Benutzererfahrung mit diesen Arten von Apps an.
  • Remoterendering-, Codierungs- und Visualisierungsworkloads: Diese grafikorientierten Workloads sind in der Regel stark von den spezialisierten Funktionen einer GPU abhängig, z. B. effizientem 3D-Rendering und Framecodierung/-decodierung, um Kosteneffizienz- und Durchsatzziele zu erreichen. Für diese Art von Arbeitslast kann eine einzelne GPU-fähige virtuelle Maschine (VM) möglicherweise den Durchsatz vieler reiner CPU-VMs erreichen.
  • HPC- und ML-Workloads: Bei hochgradig datenparallelen Rechenworkloads, wie z. B. Hochleistungscomputing und beim Training oder Rückschluss von Machine Learning-Modellen, können GPUs die Ergebniszeit, die Rückschlusszeit und die Trainingszeit erheblich verkürzen. Alternativ bieten sie möglicherweise eine bessere Kosteneffizienz als eine reine CPU-Architektur bei vergleichbarem Leistungsniveau. Viele High Performance Compute (HPC)- und Machine-Learning-Frameworks können GPU-Beschleunigung nutzen. Überlegen Sie, ob die GPU-Beschleunigung für Ihre spezifische Arbeitslast von Vorteil sein könnte.

GPU-Virtualisierung in Windows Server

Technologien zur GPU-Virtualisierung ermöglichen die GPU-Beschleunigung in einer virtualisierten Umgebung, in der Regel auf virtuellen Computern. Wenn Ihre Arbeitslast mit Hyper-V virtualisiert ist, müssen Sie Grafikvirtualisierung einsetzen, um für Ihre virtualisierten Apps oder Dienste die GPU-Beschleunigung der physischen GPU bereitzustellen. Wenn Ihre Workload jedoch direkt auf physischen Windows Server-Hosts ausgeführt wird, ist keine Grafikvirtualisierung erforderlich. Ihre Apps und Dienste haben bereits Zugriff auf die GPU-Funktionen und APIs, die in Windows Server nativ unterstützt werden.

Die folgenden Technologien zur Grafikvirtualisierung sind für Hyper-V-VMs in Windows Server verfügbar:

Über VM-Workloads hinaus unterstützt Windows Server auch die GPU-Beschleunigung von Containerworkloads in Windows-Containern. Weitere Informationen finden Sie unter GPU-Beschleunigung in Windows-Containern.

Diskrete Gerätezuweisung (Discrete Device Assignment, DDA)

Mithilfe der diskreten Gerätezuweisung (Discrete Device Assignment, DDA) können Sie einer virtuellen Maschine eine oder mehrere physische GPUs zuweisen. In einer DDA-Bereitstellung werden virtualisierte Workloads auf dem nativen Treiber ausgeführt und haben in der Regel vollen Zugriff auf die GPU-Funktionalität. DDA bietet das höchste Maß an App-Kompatibilität und potenzieller Leistung. DDA kann außerdem GPU-Beschleunigung für Linux-VMs bereitstellen, sofern dies unterstützt wird.

Eine DDA-Bereitstellung kann nur eine begrenzte Anzahl virtueller Computer beschleunigen, da jede physische GPU maximal eine VM beschleunigen kann. Wenn Sie einen Dienst entwickeln, dessen Architektur freigegebene virtuelle Computer unterstützt, sollten Sie das Hosten mehrerer beschleunigter Workloads pro VM in Betracht ziehen. Wenn Sie beispielsweise eine Remotedesktopdienste-Lösung erstellen, können Sie die Benutzer-Skala (User Scale) verbessern, indem Sie die Windows Server-Funktionen für mehrere Sitzungen nutzen, um auf jeder VM mehrere Benutzerdesktops zu hosten. Diese Benutzer profitieren gemeinsam von den Vorteilen der GPU-Beschleunigung.

Weitere Informationen finden Sie in folgenden Artikeln:

GPU-Partitionierung (GPU-P)

Ab Windows Server 2025 ermöglicht es Ihnen die GPU-Partitionierung, ein physisches GPU-Gerät mit mehreren virtuellen Maschinen (VMs) zu teilen. Bei der GPU-Partitionierung oder GPU-Virtualisierung steht den einzelnen virtuellen Computern nicht die gesamte GPU, sondern jeweils ein dedizierter Anteil der GPU zur Verfügung.

Die GPU-Partitionierung verwendet die SR-IOV-Schnittstelle (Single Root IO Virtualization), die eine hardwaregestützte Sicherheitsgrenze mit planbarer Leistung für jeden virtuellen Computer bereitstellt. Jede VM kann nur auf die ihr zugewiesenen GPU-Ressourcen zugreifen, und die sichere Hardwarepartitionierung verhindert den unbefugten Zugriff durch andere VMs.

Weitere Informationen zur GPU-Partitionierung finden Sie in diesen Artikeln:

DDA- und GPU-Partitionierung im Vergleich

Berücksichtigen Sie bei der Planung Ihrer Bereitstellung die folgenden Unterschiede hinsichtlich Funktionen und Unterstützung zwischen Grafikvirtualisierungstechnologien:

Beschreibung Diskrete Gerätezuweisung GPU-Partitionierung
GPU-Ressourcenmodell Nur dediziert Partitioned
VM-Dichte Gering (eine oder mehrere GPUs pro VM) Hoch (mindestens eine GPUs für viele VMs)
Anwendungskompatibilität Alle GPU-Funktionen werden vom Hersteller bereitgestellt (DX 12, OpenGL, CUDA) Alle GPU-Funktionen werden vom Hersteller bereitgestellt (DX 12, OpenGL, CUDA)
AVC444 Über Gruppenrichtlinie verfügbar Über Gruppenrichtlinie verfügbar
GPU VRAM Bis zur Menge des von der GPU unterstützen VRAMs Bis zur Menge des von der GPU pro Partition unterstützten VRAMs
GPU-Treiber im Gastbetriebssystem Treiber des GPU-Herstellers (NVIDIA, AMD, Intel) Treiber des GPU-Herstellers (NVIDIA, AMD, Intel)