Nouveautés de System Center Virtual Machine Manager

Cet article détaille les nouvelles fonctionnalités prises en charge dans System Center 2025 - Virtual Machine Manager (VMM).

Nouvelles fonctionnalités dans VMM 2025

Consultez les sections suivantes pour connaître les nouvelles fonctionnalités et mises à jour des fonctionnalités prises en charge dans VMM 2025.

Prise en charge de Windows Server 2025

VMM 2025 prend en charge les hôtes Windows Server 2025 et les Machines Virtuelles.

Prise en charge de la gestion des machines virtuelles sur des clusters Azure Stack HCI 23H2

Avec VMM 2025, vous pouvez gérer les machines virtuelles s’exécutant sur des clusters Azure Stack HCI 23H2.

Posture de sécurité améliorée

VMM 2025 fonctionne avec TLS 1.3 et la dépendance vis-à-vis des protocoles d’authentification hérités, tels que NTLM et CredSSP, a réduit considérablement.

Toutes les machines virtuelles créées avec VMM 2025 sont par défaut de génération 2, qui est basée sur le microprogramme UEFI et est plus sécurisée que les machines virtuelles de génération 1 basées sur le microprogramme BIOS.

Prise en charge des derniers systèmes d’exploitation invités Linux

Avec VMM 2025, vous pouvez exécuter Ubuntu Linux 24.04, RHEL 9, Debian 13 et 12, SUSE Linux 15, Oracle Linux 9 et Rocky Linux 9 et 8.

Amélioration des performances de conversion de machines virtuelles VMware vers Hyper-V

VMM 2025 est fourni avec des performances de conversion de machines virtuelles ESXi vers Hyper-V plus rapides par défaut.

Basculer vers les fonctionnalités d’intégration SCVMM avec Arc pour Azure

Dans VMM 2025, les fonctionnalités d’intégration Azure suivantes ne sont pas prises en charge :

  • Gestion des machines virtuelles Azure à partir de VMM
  • Gestion des mises à jour Azure v1 sur les machines virtuelles managées VMM

System Center Virtual Machine Manager avec Azure Arc est l’alternative à ces fonctionnalités.

System Center Service Provider Foundation (SPF) est supprimé

À compter de System Center 2025, Service Provider Foundation (SPF) sera supprimé, car ses fonctionnalités sont désormais intégrées à System Center Virtual Machine Manager avec Azure Arc.

Cet article détaille les nouvelles fonctionnalités prises en charge dans System Center 2022 - Virtual Machine Manager (VMM). Il détaille également les nouvelles fonctionnalités de VMM 2022 UR1 et UR2.

Nouvelles fonctionnalités de VMM 2022

Consultez les sections suivantes pour connaître les nouvelles fonctionnalités, et celles mises à jour, prises en charge dans VMM 2022.

Compute

Prise en charge des systèmes d’exploitation Windows Server 2022 et Windows Server 2022 invité

VMM 2022 peut être utilisé pour gérer les hôtes de système d’exploitation Windows Server 2022 et Windows Server 2022 invité.

Prise en charge de Windows 11

VMM 2022 prend en charge Windows 11 en tant que système d’exploitation invité.

Prise en charge des clusters Azure Stack HCI 21H2

Avec VMM 2022, vous pouvez gérer des clusters Azure Stack HCI, 21H2.

Azure Stack HCI version 21H2 est le nouveau système d’exploitation d’infrastructure hyperconvergée (HCI) qui s’exécute sur des clusters locaux avec des charges de travail virtualisées.

La plupart des opérations de gestion des clusters Azure Stack dans VMM sont similaires à celles des clusters Windows Server. 

Remarque

La gestion des clusters étendus Azure Stack HCI n’est actuellement pas prise en charge dans VMM.

Consultez Déployer et gérer des clusters Azure Stack HCI dans VMM.

Inscrire et désinscrire un cluster Azure Stack HCI avec des applets de commande PowerShell

VMM 2022 prend en charge les applets de commande PowerShell register et unregister pour un cluster Azure Stack HCI. Consultez Register-SCAzStackHCI et Unregister-SCAzStackHCI.

Prise en charge du déploiement de SDN en mode double pile

VMM 2022 prend en charge le déploiement de SDN en mode double pile.

Dans VMM 2019 UR2, nous avons introduit la prise en charge du déploiement de SDN basé sur IPv6. VMM 2022 prend en charge le mode double pile (IPv4 + IPv6) pour les composants de SDN.

Pour activer IPv6 pour le déploiement de SDN, apportez les modifications nécessaires dans la configuration du contrôleur de réseau, de la passerelle et du SLB.

Pour plus d’informations sur ces mises à jour, consultez Contrôleur de réseau, Passerelle, SLB et Configurer NAT.

Nouvelles fonctionnalités dans VMM 2022 UR1

Les sections suivantes présentent les nouvelles fonctionnalités et mises à jour des fonctionnalités prises en charge dans le correctif cumulatif 1 (UR1) VMM 2022.

Pour les problèmes résolus dans VMM 2022 UR1 et les instructions d’installation pour UR1, consultez l’article de la base de connaissances.

Prise en charge des clusters Azure Stack HCI 22H2

Avec VMM 2022 UR1, vous pouvez gérer des clusters Azure Stack HCI, 22H2.

Azure Stack HCI, version 22H2 est le nouveau système d’exploitation d’infrastructure hyperconvergé (HCI) qui s’exécute sur des clusters locaux avec des charges de travail virtualisées.

La plupart des opérations de gestion des clusters Azure Stack dans VMM sont similaires à celles des clusters Windows Server. 

Consultez Déployer et gérer des clusters Azure Stack HCI dans VMM.

Prise en charge de VMware vSphere 7.0, 8.0 et ESXi 7.0, 8.0

VMM 2022 UR1 prend en charge VMware vSphere 7.0, 8.0 et ESXi 7.0, 8.0. Plus d’informations

Prise en charge de SQL Server 2022

VMM 2022 UR1 prend en charge SQL Server 2022. Plus d’informations

Prise en charge de la connexion par carte à puce dans la console SCVMM

VMM 2022 UR1 prend en charge la connexion par carte à puce avec le mode de session amélioré dans la console SCVMM.

Prise en charge de SR-IOV pour les cartes réseau gérées par le contrôleur de réseau

Avec VMM 2022 UR1, SR-IOV prend en charge les cartes réseau gérées par le contrôleur de réseau.

Suppression des dépendances VMM sur le pack d’administration Operations Manager déconseillé

Avec VMM 2022 UR1, supprimez les dépendances VMM sur les packs d’administration SCOM déconseillés. Si vous disposez d’une intégration SCOM - VMM active, suivez les étapes répertoriées dans l’article de la Base de connaissances avant de procéder à la mise à niveau vers VMM 2022 UR1.

Découvrir SCVMM avec Arc à partir de la console VMM

VMM 2022 UR1 vous permet de découvrir SCVMM avec Arc à partir de la console et de gérer votre environnement hybride et d’effectuer des opérations de machine virtuelle en libre-service via Portail Azure. Plus d’informations

Prise en charge des réseaux virtuels 64 pour Windows Server 2019 ou version ultérieure

VMM 2022 UR1 prend en charge 64 réseaux virtuels pour Windows Server 2019 ou version ultérieure.

Nouvelles fonctionnalités dans VMM 2022 UR2

Les sections suivantes présentent les nouvelles fonctionnalités et mises à jour des fonctionnalités prises en charge dans le correctif cumulatif 2 (UR2) VMM 2022.

Pour les problèmes résolus dans VMM 2022 UR2 et les instructions d’installation pour UR2, consultez l’article de la Base de connaissances.

Amélioration des performances de conversion V2V des machines virtuelles VMware vers des machines virtuelles Hyper-V

Vous pouvez maintenant convertir vos machines virtuelles VMware en Hyper-V avec une vitesse de conversion proche de quatre fois plus rapide et la prise en charge des machines virtuelles VMware avec des tailles de disque supérieures à 2 To. En savoir plus sur l’utilisation de cette amélioration.

Onglet Découverte SCVMM avec Arc améliorée

L’onglet Azure Arc met désormais en évidence les derniers ajouts de fonctionnalités à SCVMM avec Arc, qui inclut la prise en charge des services de gestion Azure tels que Microsoft Defender pour le cloud, Azure Update Manager, Azure Monitor, Microsoft Sentinel, etc. Plus d’informations

Si vous exécutez des systèmes d’exploitation hôtes et invités WS 2012 et 2012R2, le panneau Azure Arc fournit désormais des conseils pour continuer à rester à l’état de support.

Prise en charge des systèmes d’exploitation invités Linux les plus récents

Avec VMM 2022 UR2, vous pouvez exécuter Ubuntu Linux 22, Debian 11, Oracle Linux 8 et 9 machines virtuelles Linux.

Cet article détaille les nouvelles fonctionnalités prises en charge dans System Center 2019 - Virtual Machine Manager (VMM). Il détaille également les nouvelles fonctionnalités de VMM 2019 UR1, UR2, UR3, UR4, UR5 et UR6.

Attention

Cet article fait référence à CentOS, une distribution Linux qui a atteint l’état EOL (fin du service). Veuillez considérer votre utilisation et votre planification en conséquence. Pour plus d’informations, consultez les conseils d’aide relatifs à la fin de vie de CentOS.

Nouvelles fonctionnalités de VMM 2019

Les sections suivantes présentent les nouvelles fonctionnalités de Virtual Machine Manager (VMM) 2019.

Compute

Mise à niveau propagée de cluster pour les clusters S2D

System Center 2019 Virtual Machine Manager prend en charge une mise à niveau propagée d’un cluster hôte espaces de stockage direct (S2D) de Windows Server 2016 vers Windows Server 2019. Pour plus d’informations, consultez Effectuer une mise à niveau propagée.

Prise en charge de la déduplication pour le volume ReFS

VMM 2019 prend en charge la déduplication pour le volume ReFS sur le cluster hyperconvergé Windows Server 2019 et le serveur de fichiers scale-out. Pour plus d’informations, consultez Ajouter un stockage aux hôtes et clusters Hyper-V.

Stockage

Optimisation dynamique du stockage

Cette fonctionnalité permet d’empêcher le stockage partagé de cluster (partages de fichiers et CSV) de devenir complet en raison de l’extension ou de nouveaux disques durs virtuels (VHD) placés sur le stockage partagé du cluster. Vous pouvez maintenant définir une valeur de seuil pour déclencher un avertissement lorsque l’espace de stockage libre dans le stockage partagé du cluster est inférieur au seuil. Cette situation peut se produire lors d’un nouveau placement de disque. Cela peut également se produire lorsque les disques durs virtuels sont automatiquement migrés vers d’autres stockages partagés dans le cluster. Pour plus d’informations, consultez Optimisation dynamique.

Prise en charge de la surveillance de l’intégrité du stockage

La surveillance de l’intégrité du stockage vous permet de surveiller l’état d’intégrité et opérationnel des pools de stockage, des numéros logiques et des disques physiques dans l’infrastructure VMM.

Vous pouvez surveiller l’intégrité du stockage sur la page Fabric de la console VMM. Pour plus d’informations, consultez Configurer l’infrastructure de stockage VMM.

Mise en réseau

Configuration des adresses IP virtuelles SLB via des modèles de service VMM

Les réseaux définis par logiciel (SDN) dans Windows 2016 peuvent utiliser l’équilibrage de charge logicielle (SLB) pour distribuer uniformément le trafic réseau entre les charges de travail gérées par les fournisseurs de services et les locataires. VMM 2016 prend actuellement en charge le déploiement d’adresses IP virtuelles SLB à l’aide de PowerShell.

Avec VMM 2019, VMM prend en charge la configuration des adresses IP virtuelles SLB tout en déployant des applications multiniveau à l’aide des modèles de service. Pour plus d’informations, consultez Configurer des adresses IP virtuelles SLB via des modèles de service VMM.

Configuration des réseaux de machines virtuelles chiffrés via VMM

VMM 2019 prend en charge le chiffrement des réseaux de machines virtuelles. À l’aide de la nouvelle fonctionnalité de réseaux chiffrés, le chiffrement de bout en bout peut être facilement configuré sur les réseaux de machines virtuelles à l’aide du contrôleur de réseau. Ce chiffrement empêche le trafic entre deux machines virtuelles sur le même réseau et le même sous-réseau d’être lu et manipulé.

Le contrôle du chiffrement est au niveau du sous-réseau. Le chiffrement peut être activé ou désactivé pour chaque sous-réseau du réseau de machines virtuelles. Pour plus d’informations, consultez Configurer des réseaux chiffrés dans SDN à l’aide de VMM.

Prise en charge de la configuration d’une passerelle de transfert de couche 3 à l’aide de la console VMM

Le transfert de couche 3 (L3) permet la connectivité entre l’infrastructure physique du centre de données et l’infrastructure virtualisée dans le cloud de virtualisation du réseau Hyper-V. Les versions antérieures de VMM ont pris en charge la configuration de passerelle de couche 3 via PowerShell.

Dans VMM 2019, vous pouvez configurer une passerelle de transfert de couche 3 à l’aide de la console VMM. Pour plus d’informations, consultez Configurer le transfert L3.

Prise en charge d’une adresse MAC statique sur des machines virtuelles déployées sur un cloud VMM

Avec cette fonctionnalité, vous pouvez définir une adresse MAC statique sur des machines virtuelles déployées sur un cloud. Vous pouvez également modifier l’adresse MAC de statique en dynamique et vice versa pour les machines virtuelles déjà déployées. Pour plus d’informations, consultez Provisionner des machines virtuelles dans l’infrastructure VMM.

Intégration d’Azure

Gestion des mises à jour de machine virtuelle via VMM à l’aide d’un abonnement Azure Automation

VMM 2019 introduit la possibilité de mettre à jour et de mettre à jour des machines virtuelles locales (gérées par VMM) en intégrant VMM à un abonnement Azure Automation. Pour plus d’informations, consultez Gérer les machines virtuelles.

Nouveau rôle RBAC : Administrateur de machine virtuelle

Dans un scénario où les entreprises souhaitent créer un rôle d’utilisateur pour la résolution des problèmes, l’utilisateur a besoin d’accéder à toutes les machines virtuelles. De cette façon, l’utilisateur peut apporter toutes les modifications requises sur les machines virtuelles pour résoudre un problème. Il est également nécessaire que l’utilisateur ait accès à l’infrastructure pour identifier la cause racine d’un problème. Pour des raisons de sécurité, cet utilisateur ne doit pas recevoir de privilèges pour apporter des modifications sur l’infrastructure, comme l’ajout de stockage ou d’hôtes.

Le contrôle d’accès en fonction du rôle (RBAC) actuel dans VMM n’a pas de rôle défini pour cette personne. Les rôles existants de l’administrateur délégué et de l’administrateur fabric ont trop peu ou plus d’autorisations nécessaires pour effectuer la résolution des problèmes.

Pour résoudre ce problème, VMM 2019 prend en charge un nouveau rôle appelé Administrateur de machine virtuelle. L’utilisateur de ce rôle dispose d’un accès en lecture-écriture à toutes les machines virtuelles, mais en lecture seule à l’infrastructure. Pour plus d’informations, consultez Configurer des rôles d’utilisateur dans VMM.

Prise en charge du compte de service géré de groupe en tant que compte de service VMM

Le compte de service administré de groupe (gMSA) permet d’améliorer la posture de sécurité. Il offre une commodité grâce à la gestion automatique des mots de passe, à la gestion simplifiée des noms de principe de service et à la possibilité de déléguer la gestion à d’autres administrateurs.

VMM 2019 prend en charge l’utilisation de gMSA pour le compte de service du serveur d’administration. Pour plus d’informations, consultez Installer VMM.

Remarque

Les fonctionnalités ou mises à jour de fonctionnalités suivantes ont été introduites dans VMM 1807 et sont incluses dans VMM 2019.

Fonctionnalités incluses dans VMM 2019 - introduites dans VMM 1807

Stockage

Prend en charge la sélection de CSV pour le placement d’un nouveau disque dur virtuel

Avec VMM, vous pouvez sélectionner des volumes partagés de cluster pour placer un nouveau disque dur virtuel.

Dans les versions antérieures de VMM, par défaut, un nouveau disque dur virtuel sur une machine virtuelle est placé sur le même CSV que les disques durs virtuels précédents associés à la machine virtuelle sont placés. Il n’y avait aucune option permettant de choisir un autre dossier CSV/dossier. En cas de problèmes liés au fichier CSV, comme le stockage complet ou sur engagement, les utilisateurs devaient migrer le disque dur virtuel, mais uniquement après avoir déployé le disque dur virtuel.

Avec VMM 1807, vous pouvez désormais choisir n’importe quel emplacement pour placer le nouveau disque. Vous pouvez facilement gérer ce disque en fonction de la disponibilité du stockage des CSV. Pour plus d’informations, consultez Ajouter un disque dur virtuel à une machine virtuelle.

Mise en réseau

Affichage des informations LLDP pour les appareils réseau

VMM prend en charge le protocole LLDP (Link Layer Discovery Protocol). Vous pouvez maintenant afficher les propriétés et les fonctionnalités de l’appareil réseau des hôtes à partir de VMM. Le système d’exploitation hôte doit être Windows 2016 ou version ultérieure.

Les fonctionnalités DataCenterBridging et DataCenterBridging-LLDP-Tools ont été activées sur les hôtes pour extraire les propriétés LLDP. Pour plus d’informations, consultez Configurer la mise en réseau pour les hôtes et clusters Hyper-V dans l’infrastructure VMM.

Convertir un commutateur SET en commutateur logique

Vous pouvez convertir un commutateur SET (Switch Embedded Teaming) en commutateur logique à l’aide de la console VMM. Dans les versions antérieures, cette fonctionnalité n’a été prise en charge que par le biais du script PowerShell. Pour plus d’informations, consultez Créer des commutateurs logiques.

Gestion des hôtes VMware

VMM prend en charge les serveurs VMware ESXi v6.5 dans l’infrastructure VMM. Cette prise en charge offre aux administrateurs une flexibilité supplémentaire dans la gestion de plusieurs hyperviseurs en cours d’utilisation. Pour plus d’informations sur les versions de serveur VMware prises en charge, consultez Configuration système requise.

Prise en charge de la mise à jour du cluster S2D

VMM prend en charge la mise à jour d’un hôte S2D ou d’un cluster. Vous pouvez mettre à jour des hôtes ou des clusters S2D individuels par rapport aux bases de référence configurées dans Windows Server Update Services. Pour plus d’informations, consultez Mettre à jour les hôtes et clusters Hyper-V.

Autres

Prise en charge de SQL Server 2017

VMM prend en charge SQL Server 2017. Vous pouvez mettre à niveau SQL Server 2016 vers SQL Server 2017.

Remarque

Les fonctionnalités ou mises à jour de fonctionnalités suivantes ont été introduites dans VMM 1801 et sont incluses dans VMM 2019.

Fonctionnalités incluses dans VMM 2019 - introduites dans VMM 1801

Compute

Virtualisation imbriquée

VMM prend en charge une fonctionnalité de virtualisation imbriquée que vous pouvez utiliser pour exécuter Hyper-V à l’intérieur d’une machine virtuelle Hyper-V. En d’autres termes, avec la virtualisation imbriquée, un hôte Hyper-V lui-même peut être virtualisé. La virtualisation imbriquée peut être activée hors bande à l’aide de PowerShell et de la configuration de l’hôte Hyper-V.

Vous pouvez utiliser cette fonctionnalité pour réduire vos dépenses d’infrastructure pour les scénarios de développement, de test, de démonstration et de formation. Avec cette fonctionnalité, vous pouvez également utiliser des produits non-Microsoft Administration de la virtualisation avec Hyper-V.

Vous pouvez activer ou désactiver la fonctionnalité de virtualisation imbriquée à l’aide de VMM. Vous pouvez configurer la machine virtuelle en tant qu’hôte dans VMM et effectuer des opérations d’hôte à partir de VMM sur cette machine virtuelle. Par exemple, l’optimisation dynamique VMM considère un hôte de machine virtuelle imbriquée pour le placement. Pour plus d’informations, consultez Configurer une machine virtuelle imbriquée en tant qu’hôte.

Migration d’une machine virtuelle VMware (machine virtuelle basée sur un microprogramme EFI) vers une machine virtuelle Hyper-V

La migration actuelle de VMM pour les machines virtuelles VMware vers Hyper-V prend uniquement en charge la migration de machines virtuelles bios.

VMM permet la migration de machines virtuelles VMware basées sur EFI vers des machines virtuelles Hyper-V de génération 2. Les machines virtuelles VMware que vous migrez vers la plateforme Microsoft Hyper-V peuvent tirer parti des fonctionnalités Hyper-V de génération 2.

Dans le cadre de cette version, l’Assistant Conversion de machine virtuelle active la migration de machine virtuelle en fonction du type de microprogramme (BIOS ou EFI). Il sélectionne et sélectionne par défaut la génération de machine virtuelle Hyper-V de manière appropriée. Pour plus d’informations, consultez Convertir une machine virtuelle VMware en Hyper-V dans l’infrastructure VMM. Par exemple :

  • Les machines virtuelles basées sur le BIOS sont migrées vers une machine virtuelle Hyper-V de génération 1.
  • Les machines virtuelles basées sur EFI sont migrées vers la machine virtuelle Hyper-V de génération 2.

Nous avons également apporté des améliorations au processus de conversion de machine virtuelle VMware qui rend la conversion jusqu’à 50 % plus rapide.

Amélioration des performances dans l’actualisation de l’hôte

L’actualisation de l’hôte VMM a subi certaines mises à jour pour améliorer les performances.

Avec ces mises à jour, dans les scénarios où une organisation gère un grand nombre d’hôtes et de machines virtuelles avec des points de contrôle, vous pouvez observer des améliorations significatives et notables dans les performances du travail.

Dans notre laboratoire avec des instances VMM gérant 20 hôtes et chaque hôte gérant 45 à 100 machines virtuelles, nous avons mesuré jusqu’à 10 fois l’amélioration des performances.

Session de console améliorée dans VMM

La fonctionnalité de connexion à la console dans VMM offre une autre façon de se connecter à la machine virtuelle via le Bureau à distance. Cette méthode est la plus utile lorsque la machine virtuelle n’a pas de connectivité réseau ou lorsque vous souhaitez passer à une configuration réseau susceptible d’interrompre la connectivité réseau. Actuellement, la fonctionnalité de connexion de la console dans VMM prend uniquement en charge une session de base où le texte du Presse-papiers ne peut être collé qu’à l’aide de l’option de menu Texte du Presse-papiers de type.

VMM prend en charge une session de console améliorée qui active les opérations Couper (Ctrl + X), Copier (Ctrl + C) et Coller (Ctrl + V) sur le texte et les fichiers ANSI disponibles dans le Presse-papiers. Par conséquent, les commandes copier-coller pour le texte et les fichiers sont possibles depuis et vers la machine virtuelle. Pour plus d’informations, consultez Activer la session de console améliorée dans VMM.

Stockage

Amélioration de la qualité de service de stockage VMM

La qualité de service de stockage (QoS) offre un moyen de surveiller et de gérer de manière centralisée les performances de stockage des machines virtuelles à l’aide d’Hyper-V et des rôles de serveur de fichiers avec montée en puissance étendue. La fonctionnalité améliore automatiquement l’équité des ressources de stockage entre plusieurs machines virtuelles à l’aide du même cluster. Elle permet également d’atteindre des objectifs de performances basés sur des stratégies.

VMM prend en charge les améliorations suivantes dans la qualité de service de stockage :

  • Extension de la prise en charge qoS de stockage au-delà de S2D : vous pouvez désormais affecter des stratégies qoS de stockage aux réseaux de zone de stockage (SAN). Pour plus d’informations, consultez Gérer la qualité de service de stockage pour les clusters.
  • Prise en charge des clouds privés VMM : les stratégies qoS de stockage peuvent désormais être consommées par les locataires de cloud VMM. Pour plus d’informations, consultez Créer un cloud privé.
  • Disponibilité des stratégies QoS de stockage en tant que modèles : vous pouvez définir des stratégies QoS de stockage via des modèles de machine virtuelle. Pour plus d’informations, consultez Ajouter des modèles de machine virtuelle à la bibliothèque VMM.

Mise en réseau

Configuration des clusters invités dans SDN via VMM

Avec l’avènement du réseau défini par logiciel dans Windows Server 2016 et System Center 2016, la configuration des clusters invités a subi un certain changement.

Avec l’introduction du SDN, les machines virtuelles connectées au réseau virtuel à l’aide de SDN ne sont autorisées qu’à utiliser l’adresse IP affectée par le contrôleur de réseau pour la communication. La conception SDN est inspirée par la conception réseau Azure et prend en charge les fonctionnalités IP flottantes via l’équilibreur de charge logiciel (SLB) comme la mise en réseau Azure.

VMM prend également en charge les fonctionnalités IP flottantes via l’équilibrage de charge réseau dans les scénarios SDN. VMM 1801 prend en charge le clustering invité via une adresse IP virtuelle d’équilibreur de charge interne (ILB). L’ilB utilise des ports de sonde, qui sont créés sur les machines virtuelles du cluster invité pour identifier le nœud actif. À tout moment, le port de sonde du nœud actif uniquement répond à l’ilB. Ensuite, tout le trafic dirigé vers l’adresse IP virtuelle est acheminé vers le nœud actif. Pour plus d’informations, consultez Configurer des clusters invités dans SDN via VMM.

Configuration des adresses IP virtuelles SLB via des modèles de service VMM

SDN dans Windows 2016 peut utiliser SLB pour distribuer uniformément le trafic réseau entre les charges de travail gérées par le fournisseur de services et les locataires. VMM 2016 prend actuellement en charge le déploiement des adresses IP virtuelles SLB à l’aide de PowerShell.

VMM prend en charge la configuration des adresses IP virtuelles SLB lorsque vous déployez des applications multiniveau à l’aide des modèles de service. Pour plus d’informations, consultez Configurer des adresses IP virtuelles SLB via des modèles de service VMM.

Configuration des réseaux de machines virtuelles chiffrés via VMM

VMM prend en charge le chiffrement des réseaux de machines virtuelles. À l’aide de la nouvelle fonctionnalité de réseaux chiffrés, le chiffrement de bout en bout peut être facilement configuré sur les réseaux de machines virtuelles à l’aide du contrôleur de réseau. Ce chiffrement empêche le trafic entre deux machines virtuelles sur le même réseau et le même sous-réseau d’être lus et manipulés.

Le contrôle du chiffrement est au niveau du sous-réseau. Le chiffrement peut être activé ou désactivé pour chaque sous-réseau du réseau de machines virtuelles. Pour plus d’informations, consultez Configurer des réseaux chiffrés dans SDN à l’aide de VMM.

Sécurité

Prise en charge des machines virtuelles dotées d’une protection Linux

Windows Server 2016 a introduit le concept d’une machine virtuelle protégée pour les machines virtuelles basées sur le système d’exploitation Windows. Les machines virtuelles protégées protègent contre les actions d’administrateur malveillantes. Ils fournissent une protection lorsque les données de la machine virtuelle sont au repos ou lorsqu’un logiciel non approuvé s’exécute sur des hôtes Hyper-V.

Avec Windows Server 1709, Hyper-V introduit la prise en charge de l’approvisionnement de machines virtuelles dotées d’une protection Linux. La même prise en charge est désormais étendue à VMM. Pour plus d’informations, consultez Créer un disque de modèle de machine virtuelle protégée Linux.

Configuration du SGH de secours

Le service guardian hôte (SGH) fournit des services d’attestation et de protection de clé pour exécuter des machines virtuelles protégées sur des hôtes Hyper-V. Il devrait fonctionner même en cas de catastrophe. Windows Server 1709 a ajouté la prise en charge du SGH de secours.

À l’aide de VMM, un hôte protégé peut être configuré avec une paire principale et secondaire d’URL SGH (un URI d’attestation et de protection de clé). Cette fonctionnalité permet des scénarios tels que des déploiements de structure protégée qui s’étendent sur deux centres de données à des fins de récupération d’urgence et SGH exécutés en tant que machines virtuelles dotées d’une protection maximale.

Les URL HGS principales sont toujours utilisées en faveur des URL HGS secondaires. Si le SGH principal ne répond pas après le délai d’expiration et le nombre de nouvelles tentatives appropriés, l’opération est réattempée par rapport au SGH secondaire. Les opérations suivantes privilégient toujours le principal. La base de données secondaire est utilisée uniquement en cas d’échec du serveur principal. Pour plus d’informations, consultez Configurer les URL de secours HGS dans VMM.

Intégration d’Azure

Gestion des abonnements Azure Azure Resource Manager et propres à une région

Actuellement, le plug-in Azure VMM prend uniquement en charge les machines virtuelles classiques et les régions Azure globales.

VMM 1801 prend en charge la gestion des points suivants :

  • Machines virtuelles basées sur Azure Resource Manager.
  • Authentification basée sur l’ID Microsoft Entra créée à l’aide de la nouvelle Portail Azure.
  • Abonnements Azure spécifiques à une région, à savoir l’Allemagne, la Chine et les régions Azure du gouvernement des États-Unis.

Pour plus d’informations, consultez Gérer les machines virtuelles.

Nouvelles fonctionnalités dans VMM 2019 UR1

Les sections suivantes présentent les nouvelles fonctionnalités ou mises à jour de fonctionnalités prises en charge dans le correctif cumulatif 1 (UR1) VMM 2019.

Pour les problèmes résolus dans UR1 et les instructions d’installation pour UR1, consultez l’article de la base de connaissances.

Compute

Prise en charge de la gestion des partages de bibliothèque répliqués

Les grandes entreprises disposent généralement de déploiements de centres de données multisite pour répondre aux différents bureaux du monde entier. Ces entreprises disposent généralement d’un serveur de bibliothèque localement disponible pour accéder aux fichiers pour le déploiement de machines virtuelles plutôt que d’accéder aux partages de bibliothèque à partir d’un emplacement distant. Cette disposition consiste à éviter tout problème lié au réseau que les utilisateurs peuvent rencontrer. Toutefois, les fichiers de bibliothèque doivent être cohérents dans tous les centres de données pour garantir des déploiements de machines virtuelles uniformes. Pour maintenir l’uniformité du contenu de la bibliothèque, les organisations utilisent des technologies de réplication.

VMM prend désormais en charge la gestion des serveurs de bibliothèque, qui sont répliqués. Vous pouvez utiliser toutes les technologies de réplication, telles que DFSR, et gérer les partages répliqués via VMM. Pour plus d’informations, consultez Gérer les partages de bibliothèque répliqués.

Stockage

Configuration des paramètres DCB sur les clusters S2D

L’accès à la mémoire directe à distance (RDMA) et le pontage du centre de données (DCB) permettent d’obtenir un niveau de performances et de perte similaire dans un réseau Ethernet comme dans les réseaux fibre channel.

VMM 2019 UR1 prend en charge la configuration de DCB sur les clusters S2D.

Remarque

Vous devez configurer les paramètres DCB de manière cohérente sur tous les hôtes et le réseau de structure (commutateurs). Un paramètre DCB mal configuré dans l’un des appareils hôtes ou fabric est préjudiciable aux performances S2D. Pour plus d’informations, consultez Configurer les paramètres DCB sur le cluster S2D.

Mise en réseau

Améliorations de l’expérience utilisateur dans les réseaux logiques

Dans VMM 2019 UR1, l’expérience utilisateur est améliorée pour le processus de création de réseaux logiques. Les réseaux logiques sont désormais regroupés par description de produit en fonction des cas d’usage. En outre, une illustration pour chaque type de réseau logique et une graphe des dépendances sont fournies. Pour plus d’informations, consultez Configurer des réseaux logiques dans l’infrastructure VMM 2019 UR1.

Options supplémentaires pour activer la virtualisation imbriquée

Vous pouvez désormais activer la virtualisation imbriquée pendant que vous créez une machine virtuelle et déployez des machines virtuelles via des modèles de machine virtuelle et des modèles de service. Dans les versions antérieures, la virtualisation imbriquée est prise en charge uniquement sur les machines virtuelles déployées. En savoir plus sur l’activation de la virtualisation imbriquée.

Mises à jour des applets de commande PowerShell

VMM 2019 UR1 inclut les mises à jour d’applet de commande suivantes pour les fonctionnalités respectives :

  1. Configuration des paramètres DCB sur les clusters S2D

    • La nouvelle applet de commande New-SCDCBSettings : configure les paramètres DCB dans le cluster S2D géré par VMM.

    • Nouveau paramètre [-DCBSettings] : spécifie les paramètres DCB configurés sur le cluster et est inclus dans les applets de commande Install-SCVMHostCluster, Set-SCVMHostCluster et Set-SCStorageFileServer.

  2. Options supplémentaires pour activer la virtualisation imbriquée

    • Nouveau paramètre [-EnableNestedVirtualization] : active la virtualisation imbriquée et est inclus dans l’applet de commande Set-SCComputerTierTemplate .

Pour plus d’informations sur ces mises à jour, consultez les articles powerShell VMM.

Nouvelles fonctionnalités dans VMM 2019 UR2

Les sections suivantes présentent les nouvelles fonctionnalités et mises à jour des fonctionnalités prises en charge dans le correctif cumulatif 2 (UR2) VMM 2019.

Pour les problèmes résolus dans VMM 2019 UR2 et les instructions d’installation pour UR2, consultez l’article de la Base de connaissances.

Compute

Prise en charge des hôtes Windows Server 2012 R2

VMM 2019 UR2 prend en charge les hôtes Windows Server 2012 R2. Pour plus d’informations sur les hôtes pris en charge, consultez Configuration système requise.

Prise en charge des hôtes ESXi 6.7

VMM 2019 UR2 prend en charge les serveurs VMware ESXi v6.7 dans l’infrastructure VMM. Cette prise en charge offre une flexibilité supplémentaire aux administrateurs dans la gestion de plusieurs hyperviseurs en cours d’utilisation. Pour plus d’informations sur les versions de serveur VMware prises en charge, consultez Configuration système requise.

Mise en réseau

Améliorations apportées à l’expérience utilisateur lors de la création de commutateurs logiques

Avec VMM 2019 UR2, l’expérience utilisateur est améliorée pour le processus de création de commutateurs logiques. 2019 UR2 inclut des valeurs par défaut intelligentes, fournit une explication de texte clair pour différentes options, ainsi que des représentations visuelles et un diagramme de topologie pour le commutateur logique. Plus d’informations

Prise en charge d’IPv6

VMM 2019 UR2 prend en charge le déploiement de SDN IPv6. Plus d’informations

Provisionner pour définir l’affinité entre les cartes réseau virtuelles et les cartes physiques

VMM 2019 UR2 prend en charge l’affinité entre les cartes réseau virtuelles et les cartes réseau. L’affinité entre les cartes réseau virtuelles et les cartes physiques offre une flexibilité pour acheminer le trafic réseau entre les cartes réseau associées. Avec cette fonctionnalité, vous pouvez augmenter le débit en mappant une carte physique compatible RDMA avec une carte réseau virtuelle prenant en charge les paramètres RDMA. En outre, vous pouvez router un type spécifique de trafic (par exemple, une migration dynamique) vers une carte physique à bande passante plus élevée. Dans les scénarios de déploiement HCI, en spécifiant l’affinité, vous pouvez utiliser SMB multicanal pour répondre à un débit élevé pour le trafic SMB. Plus d’informations

Autres

Prise en charge de SQL Server 2019

VMM 2019 RTM et versions ultérieures prennent désormais en charge SQL Server 2019.

Prise en charge du système d’exploitation Linux

VMM 2019 UR2 prend en charge Les systèmes d’exploitation Linux Red Hat 8.0, CentOS 8, Debian 10, Ubuntu 20.04 Linux.

Mises à jour des applets de commande PowerShell

VMM 2019 UR2 inclut les mises à jour d’applet de commande suivantes pour les fonctionnalités respectives :

  1. Mettre à jour le certificat VMM

    • Nouvelle applet de commande Update-SCVMMCertificate : met à jour le certificat VMM sur le serveur VMM.
  2. Définir l’affinité entre les cartes réseau virtuelles et les cartes physiques

    • Nouveau paramètre [-PhysicalNetworkAdapterName] : spécifie le nom de la carte réseau physique et est inclus dans les applets de commande New-SCVirtualNetworkAdapter et Set-SCVirtualNetworkAdapter .
  3. Prise en charge d’IPv6

    • Nouveau paramètre [-IPv6Subnet] : spécifie un sous-réseau IPv6 et est inclus dans l’applet de commande Add-SCFabricRoleResource .

    • Mises à jour des paramètres dans les applets de commande existantes :

      • L’adresse IPv4 et IPv6 séparée par « ; » peut être transmise au paramètre [-RoutingIPSubnet] dans l’applet de commande Add-SCVMNetworkGateway .
      • Les adresses IPv6 peuvent également être ajoutées au paramètre [-PublicIPAddresses] dans l’applet de commande New-SCGatewayRoleConfiguration .

Pour plus d’informations sur ces mises à jour, consultez les articles powerShell VMM.

Nouvelles fonctionnalités dans VMM 2019 UR3

Les sections suivantes présentent les nouvelles fonctionnalités et mises à jour des fonctionnalités prises en charge dans le correctif cumulatif 3 (UR3) VMM 2019.

Pour les problèmes résolus dans VMM 2019 UR3 et les instructions d’installation pour UR3, consultez l’article de la Base de connaissances.

Compute

Prise en charge du mode jonction pour les cartes réseau virtuelles de machine virtuelle

VMM 2019 UR3 inclut la prise en charge du mode jonction pour les cartes réseau virtuelles de machine virtuelle. Le mode jonction est utilisé par les applications NFV/VNF telles que les pare-feu virtuels, les équilibreurs de charge logicielles et les passerelles virtuelles pour envoyer et recevoir le trafic sur plusieurs réseaux locaux virtuels. Plus d’informations

Prise en charge des clusters Azure Stack HCI

VMM 2019 UR3 inclut la prise en charge de l’ajout, du déploiement et de la gestion des clusters Azure Stack HCI dans VMM. En plus de la référence SKU actuelle du système d’exploitation serveur, VMM étend sa prise en charge à Azure Stack HCI.

Azure Stack HCI, version 20H2 est le nouveau système d’exploitation d’infrastructure hyperconvergé (HCI) qui s’exécute sur des clusters locaux avec des charges de travail virtualisées.

La plupart des opérations de gestion des clusters Azure Stack dans VMM sont similaires à celles de la gestion des clusters Windows Server. Plus d’informations

Remarque

La gestion des clusters étendus Azure Stack HCI n’est actuellement pas prise en charge dans VMM.

Mises à jour des applets de commande PowerShell

VMM 2019 UR3 inclut les mises à jour d’applet de commande suivantes pour la prise en charge du mode jonction pour les cartes réseau virtuelles de machine virtuelle :

Les nouveaux paramètres [-AllowedVLanList] et [NativeVLanId] sont inclus dans les applets de commande New-SCVirtualNetworkAdapter et Set-SCVirtualNetworkAdapter .

Pour plus d’informations sur ces mises à jour, consultez les articles powerShell VMM.

Nouvelles fonctionnalités dans VMM 2019 UR4

Les sections suivantes présentent les nouvelles fonctionnalités ou les mises à jour de fonctionnalités prises en charge dans VMM 2019 Update Rollup 4 (UR4).

Pour découvrir les problèmes résolus dans UR4 et les instructions d’installation d’UR4, consultez l’article de la Base de connaissances.

Compute

Prise en charge de Windows Server 2022 R2 et Windows 11

VMM 2019 UR4 prend en charge les machines virtuelles invitées Windows Server 2012 2022 et Windows 11. Pour plus d’informations sur les hôtes pris en charge, consultez Configuration requise.

Prise en charge de la connexion par carte à puce

VMM 2019 UR4 prend en charge la connexion par carte à puce pour connecter des machines virtuelles en mode de session amélioré.

Nouvelles fonctionnalités dans VMM 2019 UR5

Les sections suivantes présentent les nouvelles fonctionnalités ou mises à jour de fonctionnalités prises en charge dans le correctif cumulatif 5 (UR5) VMM 2019.

Pour les problèmes résolus dans UR5 et les instructions d’installation pour UR5, consultez l’article de la base de connaissances.

Compute

Prise en charge de VMware vSphere 7.0, 8.0 et ESXi 7.0, 8.0

VMM 2019 UR5 prend en charge VMware vSphere 7.0, 8.0 et ESXi 7.0, 8.0. Plus d’informations

Découvrir SCVMM avec Arc à partir de la console VMM

VMM 2019 UR5 vous permet de découvrir SCVMM avec Arc à partir de la console et de gérer votre environnement hybride et d’effectuer des opérations de machine virtuelle en libre-service via Portail Azure. Plus d’informations

Nouvelles fonctionnalités dans VMM 2019 UR6

Les sections suivantes présentent les nouvelles fonctionnalités ou mises à jour de fonctionnalités prises en charge dans le correctif cumulatif 6 (UR6) VMM 2019.

Pour les problèmes résolus dans UR6 et les instructions d’installation pour UR6, consultez l’article de la base de connaissances.

Onglet Découverte SCVMM avec Arc améliorée

L’onglet Azure Arc met désormais en évidence les derniers ajouts de fonctionnalités à SCVMM avec Arc, qui inclut la prise en charge des services de gestion Azure tels que Microsoft Defender pour le cloud, Azure Update Manager, Azure Monitor, Microsoft Sentinel, etc. Plus d’informations

Si vous exécutez des systèmes d’exploitation hôtes et invités WS 2012 et 2012R2, le panneau Azure Arc fournit désormais des conseils pour continuer à rester à l’état de support.

Cet article détaille les nouvelles fonctionnalités prises en charge dans System Center 2016 - Virtual Machine Manager (VMM).

Nouveautés de VMM 2016

Pour plus d’informations sur les nouvelles fonctionnalités prises en charge dans VMM 2016, consultez les sections suivantes.

Compute

Gestion complète du cycle de vie des hôtes et machines virtuelles Nano Server

Vous pouvez approvisionner et gérer des ordinateurs hôtes et des machines virtuelles Nano Server dans l’infrastructure VMM. Plus d’informations

Mise à niveau propagée d’un cluster hôte Windows Server 2012 R2

Vous pouvez maintenant mettre à niveau des clusters de serveur de fichiers Hyper-V et de scale-out (SOFS) dans l’infrastructure VMM de Windows Server 2012 R2 vers Windows Server 2016, sans temps d’arrêt pour les charges de travail de l’hôte. VMM orchestre l’ensemble du flux de travail. Il vide le nœud, le supprime du cluster, réinstalle le système d’exploitation et l’ajoute au cluster. En savoir plus sur l’exécution de mises à niveau propagées pour les clusters Hyper-V et les clusters SOFS.

Création de clusters Hyper-V &SOFS

Il existe un flux de travail simplifié pour la création de clusters Hyper-V et SOFS :

  • Déploiement nu des clusters hôtes Hyper-V : le déploiement d’un cluster hôte Hyper-V à partir de machines nues est désormais une étape unique. En savoir plus

  • Ajout d’un nœud nu à un cluster hôte Hyper-V existant ou à un cluster SOFS : vous pouvez maintenant ajouter directement un ordinateur nu à un cluster Hyper-V ou SOFS existant.

Nouvelles opérations pour l’exécution de machines virtuelles

Vous pouvez maintenant augmenter/diminuer la mémoire statique et ajouter/supprimer une carte réseau virtuelle pour les machines virtuelles en cours d’exécution. Plus d’informations

Points de contrôle de production

Vous pouvez maintenant créer des points de contrôle de production pour les machines virtuelles. Ces points de contrôle sont basés sur le service VSS (Volume Shadow Copy Service) et sont cohérents avec les applications (par rapport aux points de contrôle standard basés sur la technologie d’état enregistrée qui ne le sont pas). Plus d’informations

Server App-V

L’application Server App-V dans les modèles de service n’est plus disponible dans VMM 2016. Vous ne pouvez pas créer de modèles ni déployer de nouveaux services avec l’application Server App-V. Si vous effectuez une mise à niveau à partir de VMM 2012 R2 et que vous disposez d’un service avec l’application Server App-V, le déploiement existant continue de fonctionner. Toutefois, après la mise à niveau, vous ne pouvez pas effectuer un scale-out du niveau avec l’application Server App-V. Vous pouvez effectuer un scale-out d’autres niveaux.

Remarque

La fonctionnalité suivante est disponible à partir de 2016 UR9.

Session de console améliorée dans VMM

La fonctionnalité de connexion à la console dans VMM offre une autre façon de se connecter à la machine virtuelle via le Bureau à distance. Cette méthode est la plus utile lorsque la machine virtuelle n’a pas de connectivité réseau ou lorsque vous souhaitez passer à une configuration réseau susceptible d’interrompre la connectivité réseau. Actuellement, la fonctionnalité de connexion de la console dans VMM prend uniquement en charge une session de base où le texte du Presse-papiers ne peut être collé qu’à l’aide de l’option de menu Texte du Presse-papiers de type.

VMM prend en charge une session de console améliorée qui active les opérations Couper (Ctrl + X), Copier (Ctrl + C) et Coller (Ctrl + V) sur le texte et les fichiers ANSI disponibles dans le Presse-papiers. Par conséquent, les commandes copier-coller pour le texte et les fichiers sont possibles depuis et vers la machine virtuelle. Pour plus d’informations, consultez Activer la session de console améliorée dans VMM.

Stockage

Déployer et gérer des clusters de stockage avec espaces de stockage direct (S2D)

espaces de stockage direct dans Windows Server 2016 vous permet de créer des systèmes de stockage hautement disponibles sur Windows Server. Vous pouvez utiliser VMM pour créer un serveur de fichiers avec montée en puissance étendue exécutant Windows Server 2016 et le configurer avec espaces de stockage direct. Une fois qu’il est configuré, vous pouvez créer des pools de stockage et des partages de fichiers sur celui-ci. Plus d’informations

Réplica de stockage

Dans VMM 2016, vous pouvez utiliser le réplica de stockage Windows pour protéger les données d’un volume en le répliquant de manière synchrone entre les volumes principaux et secondaires (récupération). Vous pouvez déployer les volumes principaux et secondaires sur un seul cluster sur deux clusters différents ou sur deux serveurs autonomes. Vous utilisez PowerShell pour configurer le réplica de stockage et exécuter le basculement. En savoir plus

Qualité de service de stockage

Vous pouvez configurer QoS pour le stockage pour vous assurer que les disques, les machines virtuelles, les applications et les locataires ne sont pas inférieurs à une certaine qualité de ressource lorsque les hôtes et le stockage gèrent de lourdes charges. Vous pouvez configurer QoS pour le stockage dans l’infrastructure VMM.

Mise en réseau

Mise en réseau SDN (Software Defined Networking)

Dans VMM 2016, vous pouvez déployer l’ensemble de la pile SDN à l’aide de modèles de service VMM.

  • Vous pouvez déployer et gérer un contrôleur de réseau à plusieurs nœuds dans un sous-réseau. Après avoir déployé et intégré le contrôleur de réseau, vous pouvez spécifier que les composants de structure doivent être gérés avec SDN pour fournir une connectivité aux machines virtuelles clientes et définir des stratégies.
  • Vous pouvez déployer et configurer un équilibreur de charge logiciel pour distribuer le trafic au sein des réseaux gérés par le contrôleur de réseau. L’équilibreur de charge logiciel peut être utilisé pour la NAT entrante et sortante.
  • Vous pouvez déployer et configurer un pool de passerelles Windows Server avec redondance M+N. Après avoir déployé la passerelle, vous connectez un réseau de locataire à un réseau de fournisseur d’hébergement ou à votre propre réseau de centre de données distant à l’aide de S2S GRE, S2S IPSec ou L3.

Isolation et filtrage du trafic réseau

Vous pouvez limiter et séparer le trafic réseau en spécifiant des ACL de port sur des réseaux de machines virtuelles, des sous-réseaux virtuels, des interfaces réseau ou sur un tampon VMM entier à l’aide du contrôleur de réseau et de PowerShell. Plus d’informations

Nommage de carte réseau virtuelle

Lorsque vous déployez une machine virtuelle, vous pouvez exécuter un script post-déploiement sur le système d’exploitation invité pour configurer des cartes réseau virtuelles. Auparavant, cela était difficile, car il n’y avait pas de moyen facile de distinguer différentes cartes réseau virtuelles pendant le déploiement. Maintenant, pour les machines virtuelles de génération 2 déployées sur des hôtes Hyper-V exécutant Windows Server 2016, vous pouvez nommer la carte réseau virtuelle dans un modèle de machine virtuelle. Cela est similaire à l’utilisation d’un nom de périphérique cohérent (CDN) pour une carte réseau physique.

Gestion SDN en libre-service à l’aide de Windows Azure Pack (WAP)

Vous pouvez fournir des fonctionnalités en libre-service pour l’infrastructure gérée par le contrôleur de réseau. Celles-ci incluent la création et la gestion des réseaux de machines virtuelles, la configuration des connexions IPSec S2S et la configuration des options NAT pour les machines virtuelles de locataire et d’infrastructure dans votre centre de données.

Déploiement de commutateur logique entre les hôtes

  • L’interface permettant de créer un commutateur logique a été simplifiée pour faciliter la sélection des paramètres.
  • Vous pouvez utiliser directement Hyper-V pour configurer un commutateur virtuel standard sur un hôte managé, puis utiliser VMM pour convertir le commutateur virtuel standard en commutateur logique VMM, que vous appliquez ultérieurement sur des hôtes supplémentaires.
  • Lorsque vous appliquez un commutateur logique à un hôte particulier, si l’ensemble de l’opération ne réussit pas, l’opération est rétablie et les paramètres de l’hôte restent inchangés. Une journalisation améliorée facilite le diagnostic des défaillances.

Sécurité

Déploiement d’hôte protégé

Vous pouvez provisionner et gérer des hôtes protégés et des machines virtuelles protégées dans l’infrastructure VMM pour vous aider à fournir une protection contre les administrateurs d’hôtes malveillants et les programmes malveillants.

  • Vous pouvez gérer les hôtes protégés dans l’infrastructure de calcul VMM. Vous configurez des hôtes protégés pour communiquer avec les serveurs SGH, et vous pouvez spécifier des stratégies d’intégrité du code qui limitent les logiciels qui peuvent s’exécuter en mode noyau sur l’hôte.
  • Vous pouvez convertir des machines virtuelles existantes en machines virtuelles protégées et déployer de nouvelles machines virtuelles dotées d’une protection maximale.

Étapes suivantes