Collecte des métriques Java Management Extensions (JMX) - Amazon CloudWatch

Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.

Collecte des métriques Java Management Extensions (JMX)

Vous pouvez utiliser l' CloudWatch agent pour collecter les métriques des extensions de gestion Java (JMX) à partir de vos applications Java.

L' CloudWatch agent prend en charge la collecte de ces métriques à partir des versions suivantes :

  • JVM 8 et versions ultérieures

  • Kafka 0.8.2.x et versions ultérieures

  • Tomcat 9, 10.1 et 11 (version bêta)

Amazon EC2
Pour activer JMX dans votre instance JVM

Pour que l' CloudWatch agent puisse collecter des métriques JMX, la JVM de votre application doit se lier à un port à l'aide de la propriété com.sun.management.jmxremote.port système.

java -Dcom.sun.management.jmxremote.port=port-number -jar example.jar

Pour plus d’informations sur les options de configuration disponibles, consultez la documentation JMX.

Amazon EKS
Pour activer JMX sur les pods de vos applications Java

Lorsque vous utilisez le module complémentaire CloudWatch Observability EKS, vous pouvez gérer la manière dont les métriques JMX sont activées à l'aide d'annotations. Pour de plus amples informations, veuillez consulter Installez l' CloudWatch agent avec le module complémentaire Amazon CloudWatch Observability EKS ou le graphique Helm. Pour activer la collecte des métriques JMX à partir d’une charge de travail, ajoutez les annotations suivantes au fichier manifeste de la charge de travail, sous la section PodTemplate :

  • instrumentation.opentelemetry.io/inject-java: "true"

  • Un ou plusieurs des éléments suivants :

    • Pour les métriques JVM : cloudwatch.aws.amazon.com/inject-jmx-jvm: "true"

    • Pour les métriques des nœuds Kafka : cloudwatch.aws.amazon.com/inject-jmx-kafka: "true"

    • Pour les métriques des consommateurs Kafka : cloudwatch.aws.amazon.com/inject-jmx-kafka-consumer: "true"

    • Pour les métriques des producteurs Kafka : cloudwatch.aws.amazon.com/inject-jmx-kafka-producer: "true"

    • Pour les métriques Tomcat : cloudwatch.aws.amazon.com/inject-jmx-tomcat: "true"

Pour commencer à collecter des métriques JMX, ajoutez une jmx section dans la metrics_collected section du fichier de configuration de l' CloudWatch agent. La section jmx peut contenir les champs suivants.

  • jvm : facultatif. Indique que vous souhaitez extraire les métriques de la machine virtuelle Java (JVM) à partir de l’instance. Pour de plus amples informations, veuillez consulter Collecte des métriques JVM.

    Cette section peut inclure les champs suivants :

    • measurement : indique le tableau des métriques JVM à collecter. Pour obtenir une liste des valeurs possibles à utiliser ici, consultez la colonne Metric (Métrique) du tableau dans Collecte des métriques JVM.

      Dans l'entrée de chaque métrique, vous pouvez, si vous le souhaitez, spécifier l'une des valeurs suivantes :

      • rename – Spécifie un nom différent pour cette métrique.

      • unit – Spécifie l'unité à utiliser pour cette métrique, en remplaçant l'unité par défaut pour la métrique. L'unité que vous spécifiez doit être une unité CloudWatch métrique valide, comme indiqué dans la Unit description dans MetricDatum.

  • kafka : facultatif. Indique que vous souhaitez extraire les métriques des nœuds Apache Kafka à partir de l’instance. Pour de plus amples informations, veuillez consulter Collecte des métriques Kafka.

    Cette section peut inclure les champs suivants :

    • measurement : indique le tableau des métriques des nœuds Kafka à collecter. Pour obtenir une liste des valeurs possibles à utiliser ici, consultez la colonne Métrique du premier tableau de Collecte des métriques Kafka.

      Dans l'entrée de chaque métrique, vous pouvez, si vous le souhaitez, spécifier l'une des valeurs suivantes :

      • rename – Spécifie un nom différent pour cette métrique.

      • unit – Spécifie l'unité à utiliser pour cette métrique, en remplaçant l'unité par défaut pour la métrique. L'unité que vous spécifiez doit être une unité CloudWatch métrique valide, comme indiqué dans la Unit description dans MetricDatum.

  • kafka-consumer : facultatif. Indique que vous souhaitez extraire les métriques des consommateurs Apache Kafka à partir de l’instance. Pour de plus amples informations, veuillez consulter Collecte des métriques Kafka.

    Cette section peut inclure les champs suivants :

    • measurement : indique le tableau des métriques des nœuds Kafka à collecter. Pour obtenir une liste des valeurs possibles à utiliser ici, consultez la colonne Métrique du deuxième tableau des métriques de Collecte des métriques Kafka.

      Dans l'entrée de chaque métrique, vous pouvez, si vous le souhaitez, spécifier l'une des valeurs suivantes :

      • rename – Spécifie un nom différent pour cette métrique.

      • unit – Spécifie l'unité à utiliser pour cette métrique, en remplaçant l'unité par défaut pour la métrique. L'unité que vous spécifiez doit être une unité CloudWatch métrique valide, comme indiqué dans la Unit description dans MetricDatum.

  • kafka-producer : facultatif. Indique que vous souhaitez extraire les métriques des producteurs Apache Kafka à partir de l’instance. Pour de plus amples informations, veuillez consulter Collecte des métriques Kafka.

    Cette section peut inclure les champs suivants :

    • measurement : indique le tableau des métriques des nœuds Kafka à collecter. Pour obtenir une liste des valeurs possibles à utiliser ici, consultez la colonne Métrique du troisième tableau des métriques de Collecte des métriques Kafka.

      Dans l'entrée de chaque métrique, vous pouvez, si vous le souhaitez, spécifier l'une des valeurs suivantes :

      • rename – Spécifie un nom différent pour cette métrique.

      • unit – Spécifie l'unité à utiliser pour cette métrique, en remplaçant l'unité par défaut pour la métrique. L'unité que vous spécifiez doit être une unité CloudWatch métrique valide, comme indiqué dans la Unit description dans MetricDatum.

  • tomcat : facultatif. Indique que vous souhaitez extraire les métriques Tomcat à partir de l’instance. Pour de plus amples informations, veuillez consulter Collecte des métriques Tomcat.

    Cette section peut inclure les champs suivants :

    • measurement : indique le tableau des métriques Tomcat à collecter. Pour obtenir une liste des valeurs possibles à utiliser ici, consultez la colonne Metric (Métrique) du tableau dans Collecte des métriques Tomcat.

      Dans l'entrée de chaque métrique, vous pouvez, si vous le souhaitez, spécifier l'une des valeurs suivantes :

      • rename – Spécifie un nom différent pour cette métrique.

      • unit – Spécifie l'unité à utiliser pour cette métrique, en remplaçant l'unité par défaut pour la métrique. L'unité que vous spécifiez doit être une unité CloudWatch métrique valide, comme indiqué dans la Unit description dans MetricDatum.

La section jmx peut également inclure le champ append_dimensions facultatif :

  • append_dimensions : facultatif. Autres dimensions à utiliser pour seulement les métriques process. Si vous spécifiez ce champ, il est utilisé en plus des dimensions spécifiées dans le champ append_dimensions qui est utilisé pour tous les types de métriques collectées par l'agent.

Les champs suivants sont réservés à Amazon EC2 .
  • endpoint : l’adresse du client JMX à laquelle se connecter. Le format est ip:port. Si le point de terminaison n’est pas l’hôte local, l’authentification par mot de passe et le protocole SSL doivent être activés.

  • metrics_collection_interval : facultatif. Indique la fréquence de collecte des métriques processes, en remplaçant la valeur metrics_collection_interval globale spécifiée dans la section agent du fichier de configuration.

    Cette valeur est spécifiée en secondes. Par exemple, en spécifiant 10, les métriques sont collectées toutes les 10 secondes, et en le fixant à 300, les métriques sont collectées toutes les 5 minutes.

    Si vous définissez une valeur inférieure à 60 secondes, chaque métrique est collectée sous la forme d'une métrique haute résolution. Pour de plus amples informations, veuillez consulter Métriques haute résolution.

Si JMX a été activé avec l’authentification par mot de passe ou le protocole  SSL pour l’accès à distance, vous pouvez utiliser les champs suivants.

  • password_file : facultatif. Indique un fichier de propriétés Java contenant des paires clé/mot de passe. Le fichier doit être en lecture seule et réservé à l'utilisateur exécutant l' CloudWatch agent. Si l’authentification par mot de passe est activée, elle requiert la même paire nom d’utilisateur/mot de passe que celle définie dans le fichier de mots de passe JMX indiqué dans la propriété com.sun.management.jmxremote.password.file. Si le protocole SSL est activé, il nécessite des entrées pour keystore et truststore, et correspond respectivement à javax.net.ssl.keyStorePassword et javax.net.ssl.trustStorePassword.

  • username : si l’authentification par mot de passe est activée, spécifiez le nom d’utilisateur correspondant à celui défini dans le fichier de mots de passe fourni.

  • keystore_path : si le protocole SSL est activé, spécifiez le chemin complet vers le keystore Java, qui contient la clé privée et le certificat associé à la clé publique. Correspond à la propriété javax.net.ssl.keyStore.

  • keystore_type : si le protocole SSL est activé, spécifiez le type de keystore utilisé. Correspond à la propriété javax.net.ssl.keyStoreType.

  • truststore_path : si le protocole SSL est activé, spécifiez le chemin complet vers le truststore Java, qui doit contenir le certificat public du serveur JMX distant. Correspond à la propriété javax.net.ssl.trustStore.

  • truststore_type : si le protocole SSL est activé, spécifiez le type de truststore utilisé. Correspond à la propriété javax.net.ssl.trustStoreType.

  • remote_profile : facultatif. Les profils JMX distants pris en charge combinent TLS avec des profils SASL : SASL/PLAIN, SASL/DIGEST-MD5 et SASL/CRAM-MD5. Il doit être l’un des suivants : SASL/PLAIN, SASL/DIGEST-MD5, SASL/CRAM-MD5, TLS SASL/PLAIN, TLS SASL/DIGEST-MD5 ouTLS SASL/CRAM-MD5

  • realm : facultatif. Indique le domaine requis par le profil distant SASL/DIGEST-MD5.

  • registry_ssl_enabled : indique si l’authentification du registre RMI est activée. Définissez cette valeur sur « true » si la JVM a été configurée avec com.sun.management.jmxremote.registry.ssl=true.

  • insecure : définissez cette valeur sur true pour désactiver la validation requise lorsque l’agent est configuré avec un point de terminaison non local.

Voici un exemple de jmx section du fichier de configuration de l' CloudWatch agent.

{ "metrics": { "metrics_collected": { "jmx": [ { "endpoint": "remotehost:1314", "jvm": { "measurement": [ "jvm.memory.heap.init", "jvm.memory.nonheap.used" ] }, "kafka": { "measurement": [ "kafka.request.count", { "name": "kafka.message.count", "rename": "KAFKA_MESSAGE_COUNT", "unit": "Count" } ] }, "username": "cwagent", "keystore_path": "/path/to/keystore", "keystore_type": "PKCS12", "truststore_path": "/path/to/truststore", "truststore_type": "PKCS12" }, { "endpoint": "localhost:1315", "kafka-producer": { "measurement": [ "kafka.producer.request-rate" ] }, "append_dimensions": { "service.name": "kafka/1" } } ] } } }

Collecte des métriques JVM

Vous pouvez utiliser l' CloudWatch agent pour collecter des métriques de machine virtuelle Java (JVM). Pour configurer cela, ajoutez une jvm section à l'intérieur de la jmx section du fichier de configuration de l' CloudWatchagent.

Les métriques suivantes peuvent être collectées.

Métrique Dimensions Description

jvm.classes.loaded

[PAR DÉFAUT]

Nombre total de classes chargées.

Unité : aucune

Statistiques pertinentes : minimum, maximum, moyenne

jvm.gc.collections.count

[PAR DÉFAUT], name

Nombre total d’opérations du récupérateur de mémoire qui se sont produites.

Unité : aucune

Statistiques pertinentes : minimum, maximum, moyenne

jvm.gc.collections.elapsed

[PAR DÉFAUT], name

Temps total approximatif cumulé des opérations du récupérateur de mémoire.

Unité : millisecondes

Statistiques pertinentes : minimum, maximum, moyenne

jvm.memory.heap.init

[PAR DÉFAUT]

Quantité initiale de mémoire demandée par la JVM au système d’exploitation pour le tas.

Unité : octets

Statistiques pertinentes : minimum, maximum, moyenne

jvm.memory.heap.max

[PAR DÉFAUT]

Quantité maximale de mémoire pouvant être utilisée pour le tas.

Unité : octets

Statistiques pertinentes : maximum

jvm.memory.heap.used

[PAR DÉFAUT]

Quantité de mémoire actuellement utilisée pour le tas.

Unité : octets

Statistiques pertinentes : minimum, maximum, moyenne

jvm.memory.heap.committed

[PAR DÉFAUT]

Quantité de mémoire garantie comme disponible pour le tas.

Unité : octets

Statistiques pertinentes : minimum, maximum, moyenne

jvm.memory.nonheap.init

[PAR DÉFAUT]

Quantité initiale de mémoire demandée par la JVM au système d’exploitation pour la mémoire hors tas.

Unité : octets

Statistiques pertinentes : minimum, maximum, moyenne

jvm.memory.nonheap.max

[PAR DÉFAUT]

Quantité maximale de mémoire pouvant être utilisée pour la mémoire hors tas.

Unité : octets

Statistiques pertinentes : maximum

jvm.memory.nonheap.used

[PAR DÉFAUT]

Quantité de mémoire hors tas actuellement utilisée.

Unité : octets

Statistiques pertinentes : minimum, maximum, moyenne

jvm.memory.nonheap.committed

[PAR DÉFAUT]

Quantité de mémoire hors tas garantie comme disponible.

Unité : octets

Statistiques pertinentes : minimum, maximum, moyenne

jvm.memory.pool.init

[PAR DÉFAUT], name

Quantité initiale de mémoire demandée par la JVM au système d’exploitation pour le pool de mémoire.

Unité : octets

Statistiques pertinentes : minimum, maximum, moyenne

jvm.memory.pool.max

[PAR DÉFAUT], name

Quantité maximale de mémoire pouvant être utilisée pour le pool de mémoire.

Unité : octets

Statistiques pertinentes : maximum

jvm.memory.pool.used

[PAR DÉFAUT], name

Quantité de mémoire actuellement utilisée dans le pool de mémoire.

Unité : octets

Statistiques pertinentes : minimum, maximum, moyenne

jvm.memory.pool.committed

[PAR DÉFAUT], name

Quantité de mémoire garantie comme disponible pour le pool de mémoire.

Unité : octets

Statistiques pertinentes : minimum, maximum, moyenne

jvm.threads.count

[PAR DÉFAUT]

Nombre actuel de threads en cours d’exécution.

Unité : aucune

Statistiques pertinentes : minimum, maximum, moyenne

Les métriques JVM sont collectées avec les dimensions suivantes :

Dimension Description

[PAR DÉFAUT]

Sur Amazon, EC2 par défaut, l'hôte est également publié en tant que dimension des statistiques collectées par l' CloudWatch agent, sauf si vous utilisez le append_dimensions champ dans la metrics section. Pour plus d’informations, consultez omit_hostname dans la section de l’agent de Création ou modification manuelle du fichier de configuration de CloudWatch l'agent.

Sur Amazon EKS, par défaut, le contexte associé à k8 est également publié sous forme de dimensions de métriques (k8s.container.name, k8s.deployment.name, k8s.namespace.name, k8s.node.name, k8s.pod.name et k8s.replicaset.name). Ces dimensions peuvent être filtrées à l’aide du champ aggregation_dimensions.

name

Pour les métriques jvm.gc.collections, la valeur correspond au nom du récupérateur de mémoire.

Pour les métriques jvm.memory.pool, la valeur correspond au nom du pool de mémoire.

Collecte des métriques Kafka

Vous pouvez utiliser l' CloudWatch agent pour collecter les métriques d'Apache Kafka. Pour configurer cela, ajoutez une ou plusieurs des sous-sections suivantes dans la jmx section du fichier de configuration de l' CloudWatchagent.

  • Utilisez une section kafka pour collecter les métriques des nœuds Kafka.

  • Utilisez une section kafka-consumer pour collecter les métriques des consommateurs Kafka.

  • Utilisez une section kafka-producer pour collecter les métriques des producteurs Kafka.

Métriques des nœuds Kafka

Les métriques suivantes peuvent être collectées pour les nœuds Kafka.

Métrique Dimensions Description

kafka.message.count

[PAR DÉFAUT]

Nombre de messages reçus par le nœud Kafka.

Unité : aucune

Statistiques pertinentes : minimum, maximum, moyenne

kafka.request.count

[PAR DÉFAUT], type

Nombre de requêtes reçues par le nœud Kafka.

Unité : aucune

Statistiques pertinentes : minimum, maximum, moyenne

kafka.request.failed

[PAR DÉFAUT], type

Nombre de requêtes adressées au nœud Kafka ayant échoué.

Unité : aucune

Statistiques pertinentes : minimum, maximum, moyenne

kafka.request.time.total

[PAR DÉFAUT], type

Temps total consacré par le nœud Kafka au traitement des requêtes.

Unité : millisecondes

Statistiques pertinentes : minimum, maximum, moyenne

kafka.request.time.50p

[PAR DÉFAUT], type

Temps consacré par le nœud Kafka au traitement des requêtes correspondant au 50e centile.

Unité : millisecondes

Statistiques pertinentes : minimum, maximum, moyenne

kafka.request.time.99p

[PAR DÉFAUT], type

Temps consacré par le nœud Kafka au traitement des requêtes correspondant au 99e centile.

Unité : millisecondes

Statistiques pertinentes : minimum, maximum, moyenne

kafka.request.time.avg

[PAR DÉFAUT], type

Temps moyen consacré par le nœud Kafka au traitement des requêtes.

Unité : millisecondes

Statistiques pertinentes : moyenne

kafka.network.io

[PAR DÉFAUT], state

Nombre d’octets reçus ou envoyés par le nœud Kafka.

Unité : octets

Statistiques pertinentes : minimum, maximum, moyenne

kafka.purgatory.size

[PAR DÉFAUT], type

Nombre de requêtes actuellement en attente dans le purgatoire.

Unité : aucune

Statistiques pertinentes : minimum, maximum, moyenne

kafka.partition.count

[PAR DÉFAUT]

Nombre de partitions gérées par le nœud Kafka.

Unité : aucune

Statistiques pertinentes : minimum, maximum, moyenne

kafka.partition.offline

[PAR DÉFAUT]

Nombre de partitions hors ligne.

Unité : aucune

Statistiques pertinentes : minimum, maximum, moyenne

kafka.partition.under_replicated

[PAR DÉFAUT]

Nombre de partitions sous-répliquées.

Unité : aucune

Statistiques pertinentes : minimum, maximum, moyenne

kafka.isr.operation.count

[PAR DÉFAUT], operation

Nombre d’opérations de réduction ou d’extension du groupe de réplicas synchronisés.

Unité : aucune

Statistiques pertinentes : minimum, maximum, moyenne

kafka.max.lag

[PAR DÉFAUT]

Délai maximal, en nombre de messages, entre les réplicas suiveurs et les réplicas leaders.

Unité : aucune

Statistiques pertinentes : maximum

kafka.controller.active.count

[PAR DÉFAUT]

Nombre de contrôleurs actifs sur le nœud.

Unité : aucune

Statistiques pertinentes : minimum, maximum, moyenne

kafka.leader.election.rate

[PAR DÉFAUT]

Taux d’élection des leaders. Une augmentation de cette valeur peut indiquer des défaillances de nœud.

Unité : aucune

Statistiques pertinentes : minimum, maximum, moyenne

kafka.unclean.election.rate

[PAR DÉFAUT]

Taux d’élections des leaders non conformes. Une augmentation de cette valeur peut indiquer des défaillances de nœud.

Unité : aucune

Statistiques pertinentes : minimum, maximum, moyenne

kafka.request.queue

[PAR DÉFAUT]

Taille de la file d’attente des requêtes.

Unité : aucune

Statistiques pertinentes : minimum, maximum, moyenne

kafka.logs.flush.time.count

[PAR DÉFAUT]

Nombre d’opérations de vidage des journaux.

Unité : millisecondes

Statistiques pertinentes : minimum, maximum, moyenne

kafka.logs.flush.time.median

[PAR DÉFAUT]

Valeur du 50e centile du temps de vidage des journaux.

Unité : millisecondes

Statistiques pertinentes : minimum, maximum, moyenne

kafka.logs.flush.time.99p

[PAR DÉFAUT]

Valeur du 99e centile du temps de vidage des journaux.

Unité : millisecondes

Statistiques pertinentes : minimum, maximum, moyenne

Les métriques des nœuds Kafka sont collectées avec les dimensions suivantes :

Dimension Description

[PAR DÉFAUT]

Sur Amazon, EC2 par défaut, l'hôte est également publié en tant que dimension des statistiques collectées par l' CloudWatch agent, sauf si vous utilisez le append_dimensions champ dans la metrics section. Pour plus d’informations, consultez omit_hostname dans la section de l’agent de Création ou modification manuelle du fichier de configuration de CloudWatch l'agent.

Sur Amazon EKS, par défaut, le contexte associé à k8 est également publié sous forme de dimensions de métriques (k8s.container.name, k8s.deployment.name, k8s.namespace.name, k8s.node.name, k8s.pod.name et k8s.replicaset.name). Ces dimensions peuvent être filtrées à l’aide du champ aggregation_dimensions.

type

Type de requête. Les valeurs possibles sont produce, fetch, fetchconsumer et fetchfollower.

state

Direction du trafic réseau. Les valeurs possibles sont in et out.

operation

Type d’opération sur les réplicas synchronisés. Les valeurs possibles sont shrink et expand.

Métriques des consommateurs Kafka

Les métriques suivantes peuvent être collectées pour les consommateurs Kafka.

Métrique Dimensions Description

kafka.consumer.fetch-rate

[PAR DÉFAUT], client-id

Nombre de requêtes de lecture pour toutes les rubriques par seconde.

Unité : aucune

Statistiques pertinentes : minimum, maximum, moyenne

kafka.consumer.records-lag-max

[PAR DÉFAUT], client-id

Nombre de messages de retard du consommateur par rapport au producteur.

Unité : aucune

Statistiques pertinentes : minimum, maximum, moyenne

kafka.consumer.total.bytes-consumed-rate

[PAR DÉFAUT], client-id

Nombre moyen d’octets consommés pour toutes les rubriques par seconde.

Unité : octets

Statistiques pertinentes : moyenne

kafka.consumer.total.fetch-size-avg

[PAR DÉFAUT], client-id

Nombre moyen d’octets lus par requête pour toutes les rubriques.

Unité : octets

Statistiques pertinentes : minimum, maximum, moyenne

kafka.consumer.total.records-consumed-rate

[PAR DÉFAUT], client-id

Nombre moyen d’enregistrements consommés pour toutes les rubriques par seconde.

Unité : aucune

Statistiques pertinentes : moyenne

kafka.consumer.bytes-consumed-rate

[PAR DÉFAUT], client-id, topic

Nombre moyen d’octets consommés par seconde.

Unité : octets

Statistiques pertinentes : moyenne

kafka.consumer.fetch-size-avg

[PAR DÉFAUT], client-id, topic

Nombre moyen d’octets lus par requête.

Unité : octets

Statistiques pertinentes : minimum, maximum, moyenne

kafka.consumer.records-consumed-rate

[PAR DÉFAUT], client-id, topic

Nombre moyen d’enregistrements consommés par seconde.

Unité : aucune

Statistiques pertinentes : moyenne

Les métriques des consommateurs Kafka sont collectées avec les dimensions suivantes :

Dimension Description

[PAR DÉFAUT]

Sur Amazon, EC2 par défaut, l'hôte est également publié en tant que dimension des statistiques collectées par l' CloudWatch agent, sauf si vous utilisez le append_dimensions champ dans la metrics section. Pour plus d’informations, consultez omit_hostname dans la section de l’agent de Création ou modification manuelle du fichier de configuration de CloudWatch l'agent.

Sur Amazon EKS, par défaut, le contexte associé à k8 est également publié sous forme de dimensions de métriques (k8s.container.name, k8s.deployment.name, k8s.namespace.name, k8s.node.name, k8s.pod.name et k8s.replicaset.name). Ces dimensions peuvent être filtrées à l’aide du champ aggregation_dimensions.

client-id

ID du client.

topic

Rubrique Kafka.

Métriques des producteurs Kafka

Les métriques suivantes peuvent être collectées pour les producteurs Kafka.

Métrique Dimensions Description

kafka.producer.io-wait-time-ns-avg

[PAR DÉFAUT], client-id

Durée moyenne pendant laquelle le I/O thread a attendu qu'un socket soit prêt à être lu ou écrit.

Unité : aucune

Statistiques pertinentes : moyenne

kafka.producer.outgoing-byte-rate

[PAR DÉFAUT], client-id

Nombre moyen d’octets sortants envoyés par seconde à tous les serveurs.

Unité : octets

Statistiques pertinentes : moyenne

kafka.producer.request-latency-avg

[PAR DÉFAUT], client-id

Latence moyenne des requêtes.

Unité : millisecondes

Statistiques pertinentes : moyenne

kafka.producer.request-rate

[PAR DÉFAUT], client-id

Nombre moyen de requêtes envoyées par seconde.

Unité : aucune

Statistiques pertinentes : moyenne

kafka.producer.response-rate

[PAR DÉFAUT], client-id

Nombre de réponses reçues par seconde.

Unité : aucune

Statistiques pertinentes : minimum, maximum, moyenne

kafka.producer.byte-rate

[PAR DÉFAUT], client-id, topic

Nombre moyen d’octets envoyés par seconde pour une rubrique.

Unité : octets

Statistiques pertinentes : moyenne

kafka.producer.compression-rate

[PAR DÉFAUT], client-id, topic

Taux moyen de compression des lots d’enregistrements pour une rubrique.

Unité : aucune

Statistiques pertinentes : moyenne

kafka.producer.record-error-rate

[PAR DÉFAUT], client-id, topic

Nombre moyen d’enregistrements envoyés par seconde ayant entraîné une erreur pour une rubrique.

Unité : aucune

Statistiques pertinentes : moyenne

kafka.producer.record-retry-rate

[PAR DÉFAUT], client-id, topic

Nombre moyen par seconde d’envois d’enregistrements réessayés pour une rubrique.

Unité : aucune

Statistiques pertinentes : moyenne

kafka.producer.record-send-rate

[PAR DÉFAUT], client-id, topic

Nombre moyen d’enregistrements envoyés par seconde pour une rubrique.

Unité : aucune

Statistiques pertinentes : moyenne

Les métriques des producteurs Kafka sont collectées avec les dimensions suivantes :

Dimension Description

[PAR DÉFAUT]

Sur Amazon, EC2 par défaut, l'hôte est également publié en tant que dimension des statistiques collectées par l' CloudWatch agent, sauf si vous utilisez le append_dimensions champ dans la metrics section. Pour plus d’informations, consultez omit_hostname dans la section de l’agent de Création ou modification manuelle du fichier de configuration de CloudWatch l'agent.

Sur Amazon EKS, par défaut, le contexte associé à k8 est également publié sous forme de dimensions de métriques (k8s.container.name, k8s.deployment.name, k8s.namespace.name, k8s.node.name, k8s.pod.name et k8s.replicaset.name). Ces dimensions peuvent être filtrées à l’aide du champ aggregation_dimensions.

client-id

ID du client.

topic

Rubrique Kafka.

Collecte des métriques Tomcat

Vous pouvez utiliser l' CloudWatch agent pour collecter les métriques d'Apache Tomcat. Pour configurer cela, ajoutez une tomcat section à l'intérieur de la metrics_collected section du fichier de configuration de l' CloudWatch agent.

Les métriques suivantes peuvent être collectées.

Métrique Dimensions Description

tomcat.sessions

[PAR DÉFAUT]

Nombre de sessions actives.

Unité : aucune

Statistiques pertinentes : minimum, maximum, moyenne

tomcat.errors

[PAR DÉFAUT], proto_handler

Nombre d’erreurs rencontrées.

Unité : aucune

Statistiques pertinentes : minimum, maximum, moyenne

tomcat.processing_time

[PAR DÉFAUT], proto_handler

Temps total de traitement.

Unité : millisecondes

Statistiques pertinentes : minimum, maximum, moyenne

tomcat.traffic

[PAR DÉFAUT], proto_handler

Nombre total d’octets reçus et envoyés.

Unité : octets

Statistiques pertinentes : minimum, maximum, moyenne

tomcat.threads

[PAR DÉFAUT], proto_handler

Nombre de threads.

Unité : aucune

Statistiques pertinentes : minimum, maximum, moyenne

tomcat.max_time

[PAR DÉFAUT], proto_handler, direction

Temps maximal de traitement d’une requête.

Unité : millisecondes

Statistiques pertinentes : maximum

tomcat.request_count

[PAR DÉFAUT], proto_handler

Nombre total de requêtes.

Unité : aucune

Statistiques pertinentes : minimum, maximum, moyenne

Les métriques Tomcat sont collectées avec les dimensions suivantes :

Dimension Description

[PAR DÉFAUT]

Sur Amazon, EC2 par défaut, l'hôte est également publié en tant que dimension des statistiques collectées par l' CloudWatch agent, sauf si vous utilisez le append_dimensions champ dans la metrics section. Pour plus d’informations, consultez omit_hostname dans la section de l’agent de Création ou modification manuelle du fichier de configuration de CloudWatch l'agent.

Sur Amazon EKS, par défaut, le contexte associé à k8 est également publié sous forme de dimensions de métriques (k8s.container.name, k8s.deployment.name, k8s.namespace.name, k8s.node.name, k8s.pod.name et k8s.replicaset.name). Ces dimensions peuvent être filtrées à l’aide du champ aggregation_dimensions.

proto_handler

Le proto_handler est un identifiant pour un connecteur, qui est fourni au format <protocol>-<type>-<port> (par exemple http-nio-8080).

direction

Direction du trafic. Les valeurs possibles sont received et sent.