Recommandations pour optimiser les coûts de mise à l’échelle
S’applique à cette recommandation de liste de contrôle Azure Well-Architected Framework Cost Optimization :
CO :12 | Optimisez les coûts de mise à l’échelle. Évaluez une autre mise à l’échelle au sein de vos unités d’échelle. Envisagez d’autres configurations de mise à l’échelle et alignez-les sur le modèle de coût. Les considérations doivent inclure l’utilisation par rapport aux limites d’héritage de chaque instance, ressource et limite d’unité d’échelle. Utilisez des stratégies pour contrôler la demande et l’offre. |
---|
Ce guide fournit des recommandations pour optimiser les coûts de mise à l’échelle. L’optimisation des coûts de mise à l’échelle est le processus de suppression d’inefficacités dans la mise à l’échelle de la charge de travail. L’objectif est de réduire les coûts de mise à l’échelle tout en répondant à toutes les exigences non fonctionnelles. Dépenser moins pour obtenir le même résultat. L’optimisation de la mise à l’échelle vous permet d’éviter les dépenses inutiles, le surprovisionnement et les déchets. Cela permet également d’éviter des pics inattendus de coûts en contrôlant la demande et en limitant l’offre. Les pratiques de mise à l’échelle inefficaces peuvent entraîner une augmentation de la charge de travail et des coûts opérationnels et affecter négativement l’intégrité financière globale de la charge de travail.
Définitions
Terme | Définition |
---|---|
Mise à l’échelle automatique | Approche de mise à l’échelle qui ajoute ou supprime automatiquement des ressources lorsqu’un ensemble de conditions est rempli. |
Métriques de coût | Données numériques liées au coût de la charge de travail. |
Réduire | Stratégie de mise à l’échelle verticale qui passe à une référence SKU inférieure pour fournir moins de ressources à la charge de travail. |
Scale-in | Stratégie de mise à l’échelle horizontale qui supprime les instances pour fournir moins de ressources à la charge de travail. |
Scale-out | Stratégie de mise à l’échelle horizontale qui ajoute des instances pour fournir davantage de ressources à la charge de travail. |
Unité d'échelle | Groupe de ressources qui sont mises à l’échelle proportionnellement ensemble. |
Monter en puissance | Stratégie de mise à l’échelle verticale qui passe à une référence SKU supérieure pour fournir davantage de ressources à la charge de travail. |
Référence SKU (Stock Keeping Unit) | Niveau de service pour un service Azure. |
Données d’utilisation | Les données d’utilisation sont des informations directes (réelles) ou des informations indirectes/représentatives (proxy) sur la quantité d’une tâche, d’un service ou d’une application utilisée. |
Stratégies de conception
L'objectif de la mise à l’échelle de l'optimisation des coûts est d'augmenter et de réduire la taille de l'entreprise au dernier moment et de la réintégrer dès que cela est possible. Pour optimiser la mise à l'échelle de votre charge de travail, vous pouvez évaluer d'autres options de mise à l'échelle au sein des unités d'échelle et les aligner sur le modèle de coût. Une unité d’échelle représente un regroupement spécifique de ressources qui peuvent être mises à l’échelle indépendamment ou ensemble. Vous devez concevoir des unités d’échelle pour gérer une quantité spécifique de charge, et elles peuvent comprendre plusieurs instances, serveurs ou autres ressources. Vous devez évaluer l’efficacité des coûts de vos unités d’échelle de charge de travail et des alternatives de modèle.
Si vous n’utilisez pas la mise à l’échelle, consultez des conseils sur la mise à l’échelle de la charge de travail. Vous devez déterminer si votre application peut être mise à l’échelle. Les applications sans état sont plus faciles à mettre à l’échelle, car elles peuvent gérer plusieurs requêtes en même temps. Évaluez également si l’application est générée à l’aide de principes de systèmes distribués. Les systèmes distribués peuvent gérer une charge accrue en distribuant la charge de travail sur plusieurs nœuds. Toutefois, une application singleton est conçue pour avoir une seule instance en cours d’exécution à un moment donné. La mise à l’échelle peut donc ne pas convenir à toutes les charges de travail.
Évaluer le scale-out par rapport au scale-up
L’évaluation du scale-out par rapport au scale-up implique de déterminer l’approche la plus rentable entre l’augmentation des ressources dans un système existant (scale-up) ou l’ajout d’instances de ce système (scale-out) en fonction de différents facteurs tels que la tarification, les exigences de charge de travail et les temps d’arrêt acceptables. Le choix de la bonne approche de mise à l’échelle peut entraîner des économies significatives, vous assurant de ne payer que ce dont vous avez besoin, tout en respectant les normes de performance et de fiabilité.
L’objectif est de déterminer le choix le plus économique en fonction de la tarification du niveau de service, des caractéristiques de charge de travail, des temps d’arrêt acceptables et du modèle de coût. Pour certains, il peut être plus économique d’opter pour des instances plus coûteuses en moins de nombres. À l’inverse, pour d’autres, un niveau moins cher avec plus d’instances peut être meilleur. Pour prendre une décision éclairée, vous devez analyser les données réelles ou représentatives de votre configuration et évaluer les avantages relatifs des coûts de chaque stratégie. Pour évaluer l’approche la plus rentable, tenez compte des recommandations suivantes :
Collecter des données d’utilisation : collecter des données de production réelles ou des données proxy qui représentent les modèles d’utilisation de la charge de travail et l’utilisation des ressources. Ces données doivent inclure des métriques telles que l’utilisation du processeur, l’utilisation de la mémoire, le trafic réseau et toutes les autres métriques pertinentes qui affectent le coût de la mise à l’échelle.
Définissez les métriques de coût : identifiez les métriques de coût pertinentes pour votre charge de travail, telles que le coût par heure, le coût par transaction ou le coût par unité d’utilisation des ressources. Ces métriques vous aident à comparer l’efficacité des coûts des différentes options de mise à l’échelle.
Collecter des données d’utilisation : collecter des données de production réelles ou des données proxy qui représentent les modèles d’utilisation de la charge de travail et l’utilisation des ressources. Ces données doivent inclure des métriques telles que l’utilisation du processeur, l’utilisation de la mémoire, le trafic réseau et toutes les autres métriques pertinentes qui affectent le coût de la mise à l’échelle
Définissez les métriques de coût : identifiez les métriques de coût pertinentes pour votre charge de travail, telles que le coût par heure, le coût par transaction ou le coût par unité d’utilisation des ressources. Ces métriques vous aident à comparer l’efficacité des différentes options de mise à l’échelle.
Reportez-vous aux exigences : lorsque vous décidez entre les stratégies de scale-out et de scale-up, tenez compte des exigences de fiabilité, de performances et de mise à l’échelle de votre charge de travail. Le scale-out peut améliorer la fiabilité grâce à la redondance. Le scale-up augmente la capacité d’une ressource, mais il peut y avoir des limites à la quantité que vous pouvez augmenter.
Tenez compte des limites de ressources : lors de l’évaluation des options de mise à l’échelle, il est important de prendre en compte les limites inhérentes à chaque instance, ressource et limite d’unité d’échelle. Tenez compte des limites de mise à l’échelle supérieures pour chaque ressource et planifiez en conséquence. En outre, gardez à l’esprit les limites de votre abonnement et d’autres ressources.
Mise à l’échelle des tests : créez des tests pour différents scénarios de mise à l’échelle, notamment des options de scale-out et de scale-up. Appliquer les données d’utilisation, simuler le comportement de la charge de travail sous différentes configurations de mise à l’échelle. Effectuez des tests réels à l’aide des scénarios de mise à l’échelle modélisés.
Calculer les coûts : utilisez les données collectées et les métriques de coût pour calculer les coûts associés à chaque configuration de mise à l’échelle. Tenez compte des facteurs tels que la tarification des instances, l’utilisation des ressources et les coûts supplémentaires liés à la mise à l’échelle.
Optimiser la mise à l’échelle automatique
L’optimisation de la stratégie de mise à l’échelle automatique implique d’affiner la mise à l’échelle automatique pour réagir aux modifications de charge en fonction des exigences non fonctionnelles de la charge de travail. Vous pouvez limiter les activités de mise à l’échelle excessives en ajustant les seuils et en utilisant la période de refroidissement appropriée. Pour optimiser la mise à l’échelle automatique, tenez compte des recommandations suivantes :
Analysez la stratégie de mise à l’échelle automatique actuelle : comprenez la stratégie existante et son comportement en réponse à différents niveaux de charge.
Reportez-vous aux exigences non fonctionnelles : identifiez les exigences non fonctionnelles spécifiques que vous devez prendre en compte, telles que le temps de réponse, l’utilisation des ressources ou le coût.
Ajuster les seuils de mise à l’échelle : ajustez les seuils de mise à l’échelle en fonction des caractéristiques de la charge de travail et des exigences non fonctionnelles. Définissez des seuils pour effectuer un scale-up ou un scale-down en fonction de facteurs tels que l’utilisation du processeur au fil du temps, le trafic réseau ou la longueur de la file d’attente.
Ajustez une période de refroidissement : ajustez la période de refroidissement pour empêcher les activités de mise à l’échelle excessives déclenchées par des pics de charge temporaires. Une période de refroidissement introduit un délai entre les événements de mise à l’échelle, ce qui permet au système de se stabiliser avant d’autres actions de mise à l’échelle.
Surveiller et affiner : surveillez en continu le comportement et les performances du système. Analysez les activités de mise à l’échelle et ajustez la stratégie en fonction des besoins pour optimiser les coûts et répondre aux exigences non fonctionnelles souhaitées.
Compromis : la réduction du nombre d’événements de mise à l’échelle soulève les chances de rencontrer des problèmes liés à la mise à l’échelle. Cela signifie que vous éliminez le coussin ou la mémoire tampon supplémentaire qui peut aider à gérer les problèmes potentiels ou les retards de la mise à l’échelle.
Utiliser la mise à l’échelle basée sur les événements
La mise à l’échelle automatique pilotée par les événements permet à l’application d’ajuster dynamiquement les ressources en fonction d’événements ou de déclencheurs spécifiques plutôt que des métriques traditionnelles telles que l’utilisation du processeur ou de la mémoire. Par exemple, la mise à l’échelle automatique basée sur les événements Kubernetes (KEDA) peut mettre à l’échelle des applications basées sur des scalers tels que la longueur d’une rubrique Kafka. La précision permet d’éviter les fluctuations de mise à l’échelle inutiles et les déchets de ressources. Un niveau élevé de précision optimise finalement les coûts. Pour utiliser la mise à l’échelle basée sur les événements, procédez comme suit :
Choisissez une source d’événement : déterminez la source d’événement qui déclenche la mise à l’échelle de votre unité d’échelle. Une source peut être une file d’attente de messages, une plateforme de diffusion en continu ou tout autre système piloté par les événements.
Configurer l’ingestion d’événements : configurez votre application pour consommer des événements à partir de la source d’événement choisie. Il implique généralement l’établissement d’une connexion, l’abonnement aux rubriques ou files d’attente pertinentes et le traitement des événements entrants.
Implémenter la logique de mise à l’échelle : écrivez la logique qui détermine quand et comment votre unité d’échelle doit être mise à l’échelle en fonction des événements entrants. Cette logique doit prendre en compte des facteurs tels que le nombre d’événements, le taux d’événements entrants ou toute autre métrique pertinente.
Intégrer à des mécanismes de mise à l’échelle : selon l’environnement d’exécution de votre application, vous pouvez utiliser différents mécanismes de mise à l’échelle pour ajuster les ressources allouées à l’application.
Configurer des règles de mise à l’échelle : définissez les règles de mise à l’échelle qui spécifient la façon dont votre unité d’échelle doit être mise à l’échelle en réponse aux événements. Ces règles peuvent être basées sur des seuils, des modèles ou d’autres critères qui s’alignent sur les exigences de votre application. Les seuils de mise à l’échelle doivent être liés aux métriques métier. Par exemple, si vous ajoutez deux instances supplémentaires, vous pouvez prendre en charge 50 utilisateurs supplémentaires dans le traitement du panier d’achat.
Testez et surveillez : Validez le comportement de votre implémentation de mise à l’échelle basée sur les événements en le testant avec différents scénarios d’événements. Surveillez les actions de mise à l’échelle et assurez-vous que les actions s’alignent sur vos attentes.
La configuration et le réglage précis de la mise à l’échelle automatique basée sur les événements peuvent être complexes et une configuration incorrecte peut entraîner un surapprovisionnement ou un sous-approvisionnement des ressources.
Optimiser la demande et l’offre
Contrôler la demande contre votre offre. Sur les charges de travail où l’utilisation détermine la mise à l’échelle, le coût correspond à la mise à l’échelle. Pour optimiser les coûts de mise à l’échelle, vous pouvez réduire les dépenses de mise à l’échelle. Vous pouvez décharger la demande en distribuant la demande à d’autres ressources, ou vous pouvez réduire la demande en implémentant des files d’attente prioritaires, le déchargement de passerelle, la mise en mémoire tampon et la limitation du débit. Ces deux stratégies peuvent empêcher les coûts non souhaités en raison de la mise à l’échelle et de la consommation des ressources. Vous pouvez également contrôler l’approvisionnement en limitant les limites de mise à l’échelle. Pour optimiser la demande et l’offre de charge de travail, tenez compte des recommandations suivantes.
Décharger la demande
Le délestage de la demande fait référence à la pratique consistant à distribuer ou à transférer la demande de ressources vers d'autres ressources ou services. Vous pouvez utiliser différentes technologies ou stratégies :
Mise en cache : utilisez la mise en cache pour stocker des données ou du contenu fréquemment consultés, ce qui réduit la charge sur votre infrastructure back-end. Par exemple, utilisez des réseaux de distribution de contenu (CDN) pour mettre en cache et servir du contenu statique, ce qui réduit la nécessité de mettre à l’échelle le serveur principal. Toutefois, toutes les charges de travail ne peuvent pas mettre en cache les données. Les charges de travail qui nécessitent des données à jour et en temps réel, telles que les charges de travail de trading ou de jeu, ne doivent pas utiliser de cache. Les données mises en cache sont anciennes et non pertinentes pour l’utilisateur.
Compromis. La mise en cache peut présenter des difficultés en termes d’invalidation, de cohérence et de gestion de l’expiration du cache. Il est important de concevoir et d’implémenter soigneusement des stratégies de mise en cache pour éviter les compromis potentiels.
Déchargement de contenu : déchargez le contenu vers des services externes ou des plateformes pour réduire la charge de travail sur votre infrastructure. Par exemple, au lieu de stocker des fichiers vidéo sur votre serveur principal, vous pouvez héberger ces fichiers dans un service de stockage distinct indépendant de votre serveur principal. Vous pouvez charger ces fichiers volumineux directement à partir du service de stockage. Cette approche libère des ressources sur vos serveurs, ce qui vous permet d’utiliser un serveur plus petit. Il peut être moins cher de stocker des fichiers volumineux dans un magasin de données distinct. Vous pouvez utiliser un CDN pour améliorer les performances.
Équilibrage de charge : distribuez les requêtes entrantes sur plusieurs serveurs à l’aide de l’équilibrage de charge. L’équilibrage de charge distribue uniformément la charge de travail et empêche tout serveur unique de devenir submergé. Les équilibreurs de charge optimisent l’utilisation des ressources et améliorent l’efficacité de votre infrastructure.
Déchargement de base de données : réduisez la charge sur votre serveur d’applications principal en déchargeant les opérations de base de données sur un serveur de base de données distinct ou un service spécialisé. Par exemple, utilisez un CDN pour la mise en cache de contenu statique et un cache Redis pour la mise en cache de contenu dynamique (données de base de données). Les techniques telles que le partitionnement de base de données, les réplicas en lecture ou l’utilisation de services de base de données managés peuvent également réduire la charge.
Compromis : décharger des tâches spécifiques vers d’autres ressources permet de réduire ou d’éviter une mise à l’échelle et des coûts supplémentaires associés à la mise à l’échelle. Toutefois, il est important de prendre en compte les défis opérationnels et de maintenance qui peuvent survenir à partir du déchargement. La réalisation d’une analyse complète des coûts est essentielle lors de la sélection des techniques de déchargement les plus appropriées pour votre charge de travail. Cette analyse garantit que la méthode choisie est à la fois efficace et réalisable par rapport aux économies prévues et aux complexités opérationnelles.
Réduire la demande
La réduction de la demande de ressources signifie l’implémentation de stratégies qui permettent de réduire l’utilisation des ressources dans une charge de travail. Le déchargement de la demande déplace la demande vers d’autres ressources. La réduction de la demande diminue la demande sur la charge de travail. La réduction de la demande vous permet d'éviter de sur-provisionner les ressources et de payer pour des capacités inutilisées ou sous-utilisées. Vous devez utiliser des modèles de conception au niveau du code pour réduire la demande des ressources de charge de travail. Pour réduire la demande via des modèles de conception, procédez comme suit :
Comprendre les modèles de conception : Familiarisez-vous avec différents modèles de conception qui favorisent l’optimisation des ressources.
Analyser les exigences de charge de travail : évaluez les exigences spécifiques de votre charge de travail, notamment ses modèles de demande attendus, les pics de charge et les besoins en ressources.
Sélectionnez les modèles de conception appropriés : choisissez les modèles de conception qui s’alignent sur les exigences et les objectifs de votre charge de travail. Par exemple, si votre charge de travail rencontre des fluctuations de la demande, des modèles de mise à l’échelle et de limitation pilotés par les événements peuvent aider à gérer la charge de travail en allouant dynamiquement des ressources. Appliquez les modèles de conception sélectionnés à votre architecture de charge de travail. Vous devrez peut-être séparer les composants de charge de travail, conteneuriser des applications, optimiser l’utilisation du stockage, etc.
Surveillez et optimisez en permanence : évaluez régulièrement l’efficacité des modèles de conception implémentés et ajustez selon les besoins. Surveillez l’utilisation des ressources, les métriques de performances et les opportunités d’optimisation des coûts.
En suivant ces étapes et en utilisant des modèles de conception appropriés, vous pouvez réduire la demande des ressources, optimiser les coûts et garantir l’efficacité de leurs charges de travail.
Utilisez ces modèles de conception pour réduire la demande :
Cache de côté : le modèle vérifie le cache pour voir si les données sont déjà stockées en mémoire. Si les données sont trouvées dans le cache, l’application peut rapidement récupérer et retourner les données, ce qui réduit la nécessité d’interroger le magasin de données persistant.
Vérification des revendications : en séparant les données du flux de messagerie, ce modèle réduit la taille des messages et prend en charge une solution de messagerie plus économique.
Consommateurs concurrents : ce modèle gère efficacement les éléments d’une file d’attente en appliquant un traitement distribué et simultané. Ce modèle de conception optimise les coûts en effectuant une mise à l’échelle basée sur la profondeur de file d’attente et la définition de limites sur les instances de consommation simultanées maximales.
Consolidation des ressources de calcul : ce modèle augmente la densité et consolide les ressources de calcul en combinant plusieurs applications ou composants sur l’infrastructure partagée. Il optimise l’utilisation des ressources, évitant ainsi la capacité provisionnée inutilisée et réduisant les coûts.
Tampons de déploiement : l’utilisation de tampons de déploiement offre plusieurs avantages, tels que la géo-distribution de groupes d’appareils, le déploiement de nouvelles fonctionnalités sur des tampons spécifiques et l’observation du coût par appareil. Les tampons de déploiement permettent une meilleure scalabilité, une tolérance de panne et une utilisation efficace des ressources.
Déchargement de passerelle : ce modèle décharge le traitement des demandes dans un appareil de passerelle, redirige les coûts des ressources par nœud vers l’implémentation de la passerelle. L’utilisation de ce modèle de conception peut entraîner un coût de possession inférieur dans un modèle de traitement centralisé.
Éditeur/abonné : ce modèle dissocie les composants d’une architecture, en remplaçant la communication directe par un répartiteur de messages intermédiaire ou un bus d’événements. Il permet une approche basée sur les événements et la facturation basée sur la consommation, ce qui évite le surprovisionnement.
Niveau de charge basé sur la file d’attente : le modèle met en mémoire tampon les requêtes entrantes ou les tâches dans une file d’attente. La mise en mémoire tampon lisse la charge de travail et réduit le besoin de surprovisionnement des ressources pour gérer les pics de charge. Les requêtes entrantes sont traitées de manière asynchrone pour réduire les coûts.
Partitionnement : ce modèle dirige des requêtes spécifiques vers une destination logique, ce qui permet d’optimiser la colocalisation des données. Le partitionnement peut entraîner des économies de coûts à l’aide de plusieurs instances de calcul ou de stockage de moindres spécifications.
Hébergement de contenu statique : ce modèle fournit efficacement du contenu statique à l’aide d’une plateforme d’hébergement conçue à cet effet. Il évite l’utilisation d’hôtes d’applications dynamiques plus coûteux, en optimisant l’utilisation des ressources.
Limitation : ce modèle met des limites sur le taux (limitation de débit) ou le débit des requêtes entrantes vers une ressource ou un composant. Il permet d’informer la modélisation des coûts et peut être lié directement au modèle métier de l’application.
Clé valet : ce modèle accorde un accès sécurisé et exclusif à une ressource sans impliquer davantage de composants, réduisant ainsi la nécessité de ressources intermédiaires et améliorant l’efficacité.
Contrôle de l’approvisionnement
La définition d’une limite supérieure sur le montant que vous êtes prêt à dépenser sur une ressource ou un service particulier est un moyen de contrôler l’approvisionnement. Il s’agit d’une stratégie importante pour contrôler les coûts et s’assurer que les dépenses ne dépassent pas un certain niveau. Établissez un budget et surveillez les dépenses pour s’assurer qu’elles restent dans le montant défini. Vous pouvez utiliser des plateformes de gestion des coûts, des alertes budgétaires ou suivre les modèles d’utilisation et de dépense. Certains services vous permettent de limiter l’offre et de limiter les tarifs, et vous devez utiliser ces fonctionnalités si utiles.
Le contrôle de l'offre consiste à définir une limite supérieure au montant que l'on est prêt à dépenser pour une ressource ou un service particulier. Il s'agit d'une stratégie importante car elle permet de contrôler les coûts et de s'assurer que les dépenses ne dépassent pas un certain niveau. Établissez un budget et surveillez les dépenses pour vous assurer qu’elles restent dans le seuil défini. Vous pouvez utiliser des plateformes de gestion des coûts, des alertes budgétaires ou suivre les modèles d’utilisation et de dépense. Certains services vous permettent de limiter l’offre et de limiter les tarifs, et vous devez utiliser ces fonctionnalités si utiles.
Compromis : des limites plus strictes peuvent entraîner des opportunités manquées de mise à l’échelle lorsque la demande augmente, ce qui peut avoir un impact sur l’expérience utilisateur. Cela peut entraîner des arrêts ou ne pas être en mesure de répondre au chargement. Il est important de trouver un équilibre entre l’optimisation des coûts et la garantie que vous disposez de ressources suffisantes pour répondre aux besoins de votre entreprise.
Facilitation Azure
Évaluation du scale-out par rapport au scale-up : Azure fournit un environnement de test où vous pouvez déployer et tester différentes configurations de mise à l’échelle. En utilisant les données de charge de travail réelles ou les données proxy, vous pouvez simuler des scénarios réels et mesurer les effets sur les coûts. Azure offre des outils et des services pour les tests de performances, les tests de charge et la surveillance, qui peuvent vous aider à évaluer l’efficacité du scale-out par rapport aux options de scale-up.
Azure fournit des recommandations de gestion des coûts via différents outils et services, tels que Azure Advisor. Ces recommandations analysent vos modèles d’utilisation, l’utilisation des ressources et les configurations de mise à l’échelle pour fournir des insights et des suggestions pour optimiser les coûts.
Azure Load Testing est un service de test de charge entièrement managé qui génère une charge à grande échelle. Il simule un trafic pour vos applications, quel que soit l’endroit où elles sont hébergées. Les développeurs, les testeurs et les ingénieurs assurance qualité (QA) peuvent utiliser des tests de charge pour optimiser les performances, l’extensibilité ou la capacité des applications.
Optimisation de la mise à l’échelle automatique : de nombreux services de calcul Azure prennent en charge le déploiement de plusieurs instances identiques et le réglage rapide des seuils et stratégies de mise à l’échelle. Azure fournit des fonctionnalités de mise à l’échelle automatique qui vous permettent d’ajuster automatiquement le nombre d’instances ou de ressources en fonction de la demande de charge de travail. Vous pouvez définir des règles et des seuils de mise à l’échelle pour déclencher des actions de scale-out ou de scale-in. En utilisant la mise à l’échelle automatique, vous pouvez optimiser l’allocation des ressources et l’efficacité des coûts en mettant à l’échelle dynamiquement les ressources en fonction de la demande réelle.
Azure gère la liste des limites d’abonnement et de service. Il existe une limite générale au nombre d’instances d’une ressource que vous pouvez déployer dans chaque groupe de ressources avec certaines exceptions. Pour plus d’informations, consultez Limites d’instance de ressource par groupe de ressources.
Optimisation de la demande et de l’offre : Azure Monitor fournit des insights sur les performances et l’intégrité de vos applications et infrastructures. Vous pouvez utiliser Azure Monitor pour surveiller la charge sur vos ressources et analyser les tendances au fil du temps. En utilisant des métriques et des journaux collectés par Azure Monitor, vous pouvez identifier les zones où les ajustements de mise à l’échelle peuvent être nécessaires. Ces informations peuvent guider l’affinement de votre stratégie de mise à l’échelle automatique pour s’assurer qu’elle s’aligne sur les exigences non fonctionnelles et les objectifs d’optimisation des coûts.
Déchargement de l’offre : Azure dispose d’un cloud moderne réseau de distribution de contenu (CDN) appelé services Azure Front Door et de mise en cache (Azure Cache pour Redis et Azure HPC Cache). Le CDN met en cache le contenu plus près des utilisateurs finaux, ce qui réduit la latence du réseau et améliore les temps de réponse. La mise en cache stocke une copie des données devant le magasin de données principal, ce qui réduit la nécessité de demandes répétées vers le back-end. En utilisant des services CDN et de mise en cache, vous pouvez optimiser les performances et réduire la charge sur les serveurs pour réaliser des économies potentielles.
Contrôle de l’approvisionnement : Azure vous permet également de définir des limites de ressources pour votre charge de travail cloud. En définissant des limites de ressources, vous pouvez vous assurer que votre charge de travail reste dans les ressources allouées et éviter les coûts inutiles. Azure fournit différents mécanismes pour définir des limites de ressources telles que des quotas, des stratégies et des alertes budgétaires. Ces mécanismes vous aident à surveiller et contrôler l’utilisation des ressources.
Gestion des API peut limiter et limiter les demandes. La possibilité de limiter les requêtes entrantes est un rôle clé du service Gestion des API Azure. En contrôlant la fréquence des requêtes ou le nombre total de requêtes/données transférées, Gestion des API permet aux fournisseurs d’API de protéger leurs API contre les abus et de créer de la valeur pour différents niveaux de produits API.
Liens connexes
- Mettre à l’échelle la charge de travail
- Recommandations de coûts Azure Advisor
- Qu’est-ce que Test de charge Azure ?
- Abonnement Azure et limites, quotas et contraintes du service
- Ressources non limitées à 800 instances par groupe de ressources
- Qu’est-ce qu’Azure Front Door ?
- Présentation du Cache Azure pour Redis
- Qu’est-ce qu’Azure HPC Cache ?
- Limitation de requêtes avancée avec Gestion des API Azure
Liste de contrôle d’optimisation des coûts
Reportez-vous à l’ensemble complet de recommandations.