Cette page vous explique comment afficher les métriques d'utilisation liées aux coûts de vos clusters Google Kubernetes Engine (GKE). Ces métriques décrivent l'efficacité avec laquelle vos clusters et charges de travail GKE utilisent les ressources Compute Engine que vous payez.
Vous pouvez utiliser ces informations pour optimiser le ratio coût-performances de vos clusters et charges de travail.
Métriques d'optimisation des coûts
Dans l'onglet Optimisation des coûts de la console Google Cloud , vous pouvez afficher les métriques suivantes pour vos clusters et vos charges de travail :
Utilisation du processeur : affiche un graphique à barres qui indique la relation entre les métriques de processeur suivantes :
Utilisées : quantité de ressources de processeur utilisées par tous les conteneurs du cluster ou de la charge de travail. Calculée à partir de la métrique container/cpu/core_usage_time.
Demandées : quantité de ressources processeur demandées par tous les conteneurs du cluster ou de la charge de travail. Calculée à partir de la métrique container/cpu/request_cores.
Pouvant être alloué : quantité de ressources de processeur allouées à tous les nœuds du cluster. Cette métrique est visible sur la page "Clusters". Calculée à partir de la métrique node/cpu/allocatable_cores. Pour les clusters Autopilot, aucune valeur ne peut être allouée, car Google ajuste automatiquement les allocations de processeurs.
Limite : limite de ressources de processeur pour tous les conteneurs d'une charge de travail. Cette métrique est visible sur la page "Charges de travail". Calculée à partir de la métrique container/cpu/limit_cores.
Heures processeur : nombre total d'heures d'utilisation d'un cœur sur tous les nœuds d'une charge de travail ou d'un cluster au cours de la période sélectionnée. Calculé à partir de la métrique node/cpu/total_cores (pour les clusters standards) et de la métrique container/cpu/request_cores (pour les clusters et charges de travail Autopilot).
Utilisation de la mémoire : affiche un graphique à barres qui indique la relation entre les métriques de mémoire suivantes :
Utilisées : quantité de mémoire utilisée par tous les conteneurs d'un cluster ou d'une charge de travail. Calculée à partir de la métrique container/memory/used_bytes.
Demandées : quantité de mémoire demandée pour tous les conteneurs d'un cluster ou d'une charge de travail. Calculée à partir de la métrique container/memory/request_bytes.
Pouvant être allouées : quantité de mémoire allouée à tous les nœuds du cluster. Cette métrique est visible sur la page "Clusters". Calculée à partir de la métrique node/memory/allocatable_bytes. Pour les clusters Autopilot, aucune valeur ne peut être allouée, car Google ajuste automatiquement les allocations de mémoire.
Limite : limite de mémoire pour tous les conteneurs d'une charge de travail. Cette métrique est visible sur la page "Charges de travail". Calculée à partir de la métrique container/memory/limit_bytes.
Heures mémoire : quantité totale de mémoire sur tous les nœuds d'une charge de travail ou d'un cluster au cours de la période sélectionnée. Calculée à partir de la métrique node/memory/total_bytes (pour les clusters) et de la métrique container/memory/requested_bytes (pour les clusters et charges de travail Autopilot).
Afficher les métriques
Pour afficher les métriques d'utilisation liées aux coûts, procédez comme suit dans la consoleGoogle Cloud :
Pour afficher les métriques au niveau du cluster, accédez à la page Clusters Kubernetes.
Choisissez la période sur laquelle les métriques sont calculées en moyenne (utilisation) ou accumulées (nombre total d'heures). Par exemple, 1 jour, 1 mois, etc. Si la durée de vie du cluster ou de la charge de travail est inférieure à la période sélectionnée, les métriques accumulées pendant la durée de vie du cluster ou de la charge de travail s'affichent. Par exemple, vous choisissez une période d'un jour, mais la charge de travail a été créée il y a quatre heures seulement, seules quatre heures de métriques s'affichent.
Maintenez le pointeur sur la métrique d'utilisation pour afficher plus de détails.
Les métriques d'optimisation des coûts s'affichent pour les modes de cluster comme suit :
Les clusters standards auront toujours les métriques utilisées, demandées et pouvant être allouées visibles au moment de la création, en raison de l'inclusion de composants GKE gérés dans le calcul global (espace de noms kube-system).
Les clusters Autopilot n'affichent des métriques que lorsque vous déployez sur le cluster des charges de travail avec des requêtes spécifiées. Cela est dû au modèle de tarification d'Autopilot. Les clusters Autopilot n'affichent pas de métriques pouvant être allouées, car vous ne payez que pour les ressources demandées par vos charges de travail en cours d'exécution.
Les charges de travail déployées sur des clusters standards pour lesquelles aucune requête ni aucune limite n'est spécifiée n'auront aucun ratio visible sur le graphique. Le graphique à barres ne représentera que la métrique d'utilisation de la charge de travail.
Les charges de travail déployées sur des clusters Autopilot pour lesquelles aucune requête ni aucune limite n'est spécifiée auront les valeurs par défaut appliquées aux conteneurs, et les ratios seront visibles à tout moment.
Sauf indication contraire, le contenu de cette page est régi par une licence Creative Commons Attribution 4.0, et les échantillons de code sont régis par une licence Apache 2.0. Pour en savoir plus, consultez les Règles du site Google Developers. Java est une marque déposée d'Oracle et/ou de ses sociétés affiliées.
Dernière mise à jour le 2025/07/31 (UTC).
[[["Facile à comprendre","easyToUnderstand","thumb-up"],["J'ai pu résoudre mon problème","solvedMyProblem","thumb-up"],["Autre","otherUp","thumb-up"]],[["Difficile à comprendre","hardToUnderstand","thumb-down"],["Informations ou exemple de code incorrects","incorrectInformationOrSampleCode","thumb-down"],["Il n'y a pas l'information/les exemples dont j'ai besoin","missingTheInformationSamplesINeed","thumb-down"],["Problème de traduction","translationIssue","thumb-down"],["Autre","otherDown","thumb-down"]],["Dernière mise à jour le 2025/07/31 (UTC)."],[],[],null,["# View cost-related optimization metrics\n\n[Autopilot](/kubernetes-engine/docs/concepts/autopilot-overview) [Standard](/kubernetes-engine/docs/concepts/choose-cluster-mode)\n\n*** ** * ** ***\n\nThis page shows you how to view cost-related utilization metrics for your\nGoogle Kubernetes Engine (GKE) clusters. These metrics describe how effectively your\nGKE clusters and workloads are utilizing the Compute Engine\nresources you pay for.\n\nYou can use this information to optimize the cost-to-performance ratio of your\nclusters and workloads.\n\nCost optimization metrics\n-------------------------\n\nIn the **Cost Optimization** tab in the Google Cloud console, you can view the following\nmetrics for your clusters and workloads:\n\n- **CPU utilization:** Displays a bar chart that shows the relationship between the following CPU metrics:\n - **Used** : The amount of CPU used by all containers in the cluster or workload. Calculated from the [`container/cpu/core_usage_time`](/monitoring/api/metrics_kubernetes#kubernetes/container/cpu/core_usage_time) metric.\n - **Requested** : The amount of CPU requested by all containers in the cluster or workload. Calculated from the [`container/cpu/request_cores`](/monitoring/api/metrics_kubernetes#kubernetes/container/cpu/request_cores) metric.\n - **Allocatable** : The amount of CPU allocated to all nodes in the cluster. This metric is shown on the Clusters page. Calculated from the [`node/cpu/allocatable_cores`](/monitoring/api/metrics_kubernetes#kubernetes/node/cpu/allocatable_cores) metric. For Autopilot clusters, there is no allocatable value because Google automatically adjusts CPU allocations.\n - **Limit** : The CPU limit for all containers in a workload. This metric is shown on the Workloads page. Calculated from the [`container/cpu/limit_cores`](/monitoring/api/metrics_kubernetes#kubernetes/container/cpu/limit_cores) metric.\n- **CPU hours** : The total number of core hours on all nodes in a workload or cluster within the selected timeframe. Calculated from the [`node/cpu/total_cores`](/monitoring/api/metrics_kubernetes#kubernetes/node/cpu/total_cores) metric (for Standard clusters) and the [`container/cpu/request_cores`](/monitoring/api/metrics_kubernetes#kubernetes/container/cpu/request_cores) metric (for Autopilot clusters and workloads).\n- **Memory utilization** : Displays a bar chart that shows the relationship between the following memory metrics:\n - **Used** : The amount of memory used by all containers in a cluster or workload. Calculated from the [`container/memory/used_bytes`](/monitoring/api/metrics_kubernetes#kubernetes/container/memory/used_bytes) metric.\n - **Requested** : The amount of memory requested for all containers in a cluster or workload. Calculated from the [`container/memory/request_bytes`](/monitoring/api/metrics_kubernetes#kubernetes/container/memory/request_bytes) metric.\n - **Allocatable** : The amount of memory allocated to all nodes in the cluster. This metric is shown on the Clusters page. Calculated from the [`node/memory/allocatable_bytes`](/monitoring/api/metrics_kubernetes#kubernetes/node/memory/allocatable_bytes) metric. For Autopilot clusters, there is no allocatable value because Google automatically adjusts memory allocations.\n - **Limit** : The memory limit for all containers in a workload. This metric is shown on the Workloads page. Calculated from the [`container/memory/limit_bytes`](/monitoring/api/metrics_kubernetes#kubernetes/container/memory/limit_bytes) metric.\n- **Memory hours** : The total amount of memory on all nodes in a workload or cluster within the selected timeframe. Calculated from the [`node/memory/total_bytes`](/monitoring/api/metrics_kubernetes#kubernetes/node/memory/total_bytes) metric (for clusters) and the [`container/memory/requested_bytes`](/monitoring/api/metrics_kubernetes#kubernetes/container/memory/requested_bytes) metric (for Autopilot clusters and workloads).\n\nView the metrics\n----------------\n\nTo view cost-related utilization metrics, perform the following steps in the\nGoogle Cloud console :\n\n1. To see cluster-level metrics, go to the **Kubernetes Clusters** page.\n\n [Go to Kubernetes Clusters](https://console.cloud.google.com/kubernetes/list)\n\n To see workload-level metrics, go to the **Workloads** page.\n\n [Go to Workloads](https://console.cloud.google.com/kubernetes/workload)\n2. Select the **Cost Optimization** tab.\n\n3. Choose the timeframe over which the metrics are averaged (utilization) or\n accumulated (total hours). For example, 1 day, 1 month, and more. If the\n lifetime of the cluster or workload is less than the selected timeframe,\n metrics accumulated for the lifetime of cluster or workload displays. For\n example, you choose a timeframe of 1 day but the workload was created only\n 4 hours ago, so only 4 hours of metrics are displayed.\n\n4. Hold the pointer over the utilization metric to see further details.\n\nCost optimization metrics will display for cluster modes as follows:\n\n- Standard clusters will always have used, requested and allocatable metrics visible at creation time due to the inclusion of managed GKE components in the overall calculation (kube-system namespace).\n\n\u003c!-- --\u003e\n\n- Autopilot clusters only display metrics when you deploy workloads with specified requests to the cluster. This is due to the [Autopilot pricing](/kubernetes-engine/pricing#autopilot_mode) model. Autopilot clusters don't show allocatable metrics because you only pay for resources requested by your running workloads.\n\nWorkloads deployed to Standard clusters that don't have requests or\nlimits specified, won't show a ratio on the chart. Instead, the bar chart\nwill represent just the workload usage metric.\n\nWorkloads deployed to Autopilot clusters that don't have requests or\nlimits specified, will have [default](/kubernetes-engine/docs/concepts/autopilot-overview#default_container_resource_requests)\nvalues applied to the containers, and will show the ratios at all times.\n\nWhat's next\n-----------\n\n- Learn about [Best practices for running cost-optimized applications on GKE](/architecture/best-practices-for-running-cost-effective-kubernetes-applications-on-gke).\n- Read the [Create a cost-optimized cluster in just a few clicks](/blog/products/containers-kubernetes/gke-setup-guide-automates-creation-of-cost-optimized-cluster) blog post.\n- Learn how to [view observability metrics](/kubernetes-engine/docs/how-to/view-observability-metrics)."]]