Raccolta delle metriche di Java Management Extensions (JMX) - Amazon CloudWatch

Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.

Raccolta delle metriche di Java Management Extensions (JMX)

Puoi utilizzare l' CloudWatch agente per raccogliere i parametri Java Management Extensions (JMX) dalle tue applicazioni Java.

L' CloudWatch agente supporta la raccolta di queste metriche dalle seguenti versioni:

  • JVM 8 e versioni successive

  • Kafka 0.8.2.x e versioni successive

  • Tomcat 9, 10.1 e 11 (beta)

Amazon EC2
Per abilitare JMX nella tua istanza JVM

Affinché l' CloudWatch agente sia in grado di raccogliere le metriche JMX, la JVM dell'applicazione deve collegarsi a una porta utilizzando la proprietà di sistema. com.sun.management.jmxremote.port

java -Dcom.sun.management.jmxremote.port=port-number -jar example.jar

Per ulteriori informazioni e altre configurazioni, consulta la documentazione di JMX.

Amazon EKS
Per abilitare JMX sui pod delle applicazioni Java

Quando si utilizza il componente aggiuntivo CloudWatch Observability EKS, è possibile gestire il modo in cui le metriche JMX sono abilitate con le annotazioni. Per ulteriori informazioni, consulta Installa l' CloudWatch agente con il componente aggiuntivo Amazon CloudWatch Observability EKS o il grafico Helm. Per abilitare la raccolta di metriche JMX da un carico di lavoro, aggiungi le seguenti annotazioni al file manifesto del carico di lavoro nella sezione PodTemplate:

  • instrumentation.opentelemetry.io/inject-java: "true"

  • Uno o più dei seguenti:

    • Per le metriche JVM: cloudwatch.aws.amazon.com/inject-jmx-jvm: "true"

    • Per le metriche relative ai broker Kafka: cloudwatch.aws.amazon.com/inject-jmx-kafka: "true"

    • Per le metriche relative ai consumatori Kafka: cloudwatch.aws.amazon.com/inject-jmx-kafka-consumer: "true"

    • Per le metriche relative ai produttori Kafka: cloudwatch.aws.amazon.com/inject-jmx-kafka-producer: "true"

    • Per le metriche Tomcat: cloudwatch.aws.amazon.com/inject-jmx-tomcat: "true"

Per iniziare a raccogliere le metriche JMX, aggiungi una jmx sezione all'interno della sezione del file di configurazione dell'metrics_collectedagente. CloudWatch La sezione jmx può contenere i seguenti campi.

  • jvm : Opzionale. Specifica che desideri recuperare le metriche di Java Virtual Machine (JVM) dall'istanza. Per ulteriori informazioni, consulta Raccolta di metriche di JVM.

    Questa sezione può includere i seguenti campi.

    • measurement: specifica l'array di metriche JVM da raccogliere. Per un elenco dei possibili valori da utilizzare, consulta la colonna Metric (Parametri) della tabella in Raccolta di metriche di JVM.

      Nelle voci di ciascun parametro individuale, puoi definire uno o più dei seguenti valori:

      • rename: specifica un nome diverso per questo parametro.

      • unit: specifica l'unità di misura da utilizzare per questo parametro, che sostituisce l'unità di misura predefinita per il parametro. L'unità specificata deve essere un'unità CloudWatch metrica valida, come elencato nella Unit descrizione in. MetricDatum

  • kafka : Opzionale. Specifica che desideri recuperare le metriche del broker Apache Kafka dall'istanza. Per ulteriori informazioni, consulta Raccolta di metriche di Kafka.

    Questa sezione può includere i seguenti campi.

    • measurement: specifica l'array di metriche del broker Kafka da raccogliere. Per un elenco dei valori che è possibile utilizzare in questo campo, consulta la colonna Metrica della prima tabella in Raccolta di metriche di Kafka.

      Nelle voci di ciascun parametro individuale, puoi definire uno o più dei seguenti valori:

      • rename: specifica un nome diverso per questo parametro.

      • unit: specifica l'unità di misura da utilizzare per questo parametro, che sostituisce l'unità di misura predefinita per il parametro. L'unità specificata deve essere un'unità CloudWatch metrica valida, come elencato nella Unit descrizione in. MetricDatum

  • kafka-consumer : Opzionale. Specifica che desideri recuperare le metriche del consumatore di Apache Kafka dall'istanza. Per ulteriori informazioni, consulta Raccolta di metriche di Kafka.

    Questa sezione può includere i seguenti campi.

    • measurement: specifica l'array di metriche del broker Kafka da raccogliere. Per un elenco dei valori che è possibile utilizzare in questo campo, consulta la colonna Metrica della seconda tabella delle metriche in Raccolta di metriche di Kafka.

      Nelle voci di ciascun parametro individuale, puoi definire uno o più dei seguenti valori:

      • rename: specifica un nome diverso per questo parametro.

      • unit: specifica l'unità di misura da utilizzare per questo parametro, che sostituisce l'unità di misura predefinita per il parametro. L'unità specificata deve essere un'unità CloudWatch metrica valida, come elencato nella Unit descrizione in. MetricDatum

  • kafka-producer : Opzionale. Specifica che desideri recuperare le metriche del produttore di Apache Kafka dall'istanza. Per ulteriori informazioni, consulta Raccolta di metriche di Kafka.

    Questa sezione può includere i seguenti campi.

    • measurement: specifica l'array di metriche del broker Kafka da raccogliere. Per un elenco dei valori che è possibile utilizzare in questo campo, consulta la colonna Metrica della terza tabella delle metriche in Raccolta di metriche di Kafka.

      Nelle voci di ciascun parametro individuale, puoi definire uno o più dei seguenti valori:

      • rename: specifica un nome diverso per questo parametro.

      • unit: specifica l'unità di misura da utilizzare per questo parametro, che sostituisce l'unità di misura predefinita per il parametro. L'unità specificata deve essere un'unità CloudWatch metrica valida, come elencato nella Unit descrizione in. MetricDatum

  • tomcat : Opzionale. Specifica che desideri recuperare le metriche di Tomcat dall'istanza. Per ulteriori informazioni, consulta Raccolta di metriche di Tomcat.

    Questa sezione può includere i seguenti campi.

    • measurement: specifica l'array di metriche di Tomcat da raccogliere. Per un elenco dei possibili valori da utilizzare, consulta la colonna Metric (Parametri) della tabella in Raccolta di metriche di Tomcat.

      Nelle voci di ciascun parametro individuale, puoi definire uno o più dei seguenti valori:

      • rename: specifica un nome diverso per questo parametro.

      • unit: specifica l'unità di misura da utilizzare per questo parametro, che sostituisce l'unità di misura predefinita per il parametro. L'unità specificata deve essere un'unità CloudWatch metrica valida, come elencato nella Unit descrizione in. MetricDatum

La sezione jmx può includere anche il campo facoltativo append_dimensions:

  • append_dimensions Facoltativo. Le dimensioni aggiuntive da utilizzare solo per i parametri di processo. Se specifichi questo campo, viene utilizzato in aggiunta alle dimensioni specificate nel campo append_dimensions, usato per tutti i tipi di parametri raccolti dall'agente.

I seguenti campi sono EC2 solo per Amazon.
  • endpoint: l'indirizzo a cui il client JMX deve connettersi. Il formato è ip:port. Se l'endpoint non è il localhost, è necessario abilitare l'autenticazione tramite password e SSL.

  • metrics_collection_interval Facoltativo. Specifica la frequenza di raccolta dei parametri di processo, sostituendo il valore di metrics_collection_interval globale specificato nella sezione agent del file di configurazione.

    Questo valore è specificato in secondi. Ad esempio, il valore 10 causa la raccolta dei parametri ogni 10 secondi; il valore 300 specifica che i parametri devono essere raccolti ogni 5 minuti.

    Se imposti questo valore al di sotto di 60 secondi, ogni parametro viene raccolto come parametro ad alta risoluzione. Per ulteriori informazioni, consulta Parametri ad alta risoluzione.

Se JMX è stato abilitato con l'autenticazione tramite password o SSL per l'accesso remoto, puoi utilizzare i seguenti campi.

  • password_file : Opzionale. Specifica un file di proprietà Java contenente le chiavi delle password. Il file deve essere di sola lettura e riservato all'utente che esegue l' CloudWatch agente. Se l'autenticazione tramite password è abilitata, è necessaria la stessa coppia di nome utente e password della voce nel file di password JMX fornito nella proprietà com.sun.management.jmxremote.password.file. Se SSL è abilitato, è necessario specificare keystore e truststore, corrispondenti rispettivamente a javax.net.ssl.keyStorePassword e javax.net.ssl.trustStorePassword.

  • username: se l'autenticazione con password è abilitata, specifica il nome utente che corrisponde al nome utente nel file di password fornito.

  • keystore_path: se SSL è abilitato, specifica il percorso completo del keystore Java, che consiste in una chiave privata e un certificato per la chiave pubblica. Corrisponde alla proprietà javax.net.ssl.keyStore.

  • keystore_type: se SSL è abilitato, specifica il tipo di keystore utilizzato. Corrisponde alla proprietà javax.net.ssl.keyStoreType.

  • truststore_path: se SSL è abilitato, specifica il percorso completo del truststore Java, che deve contenere il certificato pubblico del server JMX remoto. Corrisponde alla proprietà javax.net.ssl.trustStore.

  • truststore_type: se SSL è abilitato, specifica il tipo di truststore utilizzato. Corrisponde alla proprietà javax.net.ssl.trustStoreType.

  • remote_profile : Opzionale. I profili remoti JMX supportati sono TLS in combinazione con i profili SASL: SASL/PLAIN, SASL/DIGEST-MD5 e SASL/CRAM-MD5. Dovrebbe essere uno dei seguenti: SASL/PLAIN, SASL/DIGEST-MD5, SASL/CRAM-MD5, TLS SASL/PLAIN, TLS SASL/DIGEST-MD5 o TLS SASL/CRAM-MD5

  • realm : Opzionale. Il realm richiesto dal profilo remoto SASL/DIGEST-MD5.

  • registry_ssl_enabled: se l'autenticazione del registro RMI è abilitata. Impostato su true se la JVM è stata configurata con com.sun.management.jmxremote.registry.ssl=true.

  • insecure Imposta il valore su true per disattivare la convalida richiesta se l'agente è configurato per un endpoint non localhost.

Di seguito è riportato un esempio della jmx sezione del file di configurazione dell' CloudWatch agente.

{ "metrics": { "metrics_collected": { "jmx": [ { "endpoint": "remotehost:1314", "jvm": { "measurement": [ "jvm.memory.heap.init", "jvm.memory.nonheap.used" ] }, "kafka": { "measurement": [ "kafka.request.count", { "name": "kafka.message.count", "rename": "KAFKA_MESSAGE_COUNT", "unit": "Count" } ] }, "username": "cwagent", "keystore_path": "/path/to/keystore", "keystore_type": "PKCS12", "truststore_path": "/path/to/truststore", "truststore_type": "PKCS12" }, { "endpoint": "localhost:1315", "kafka-producer": { "measurement": [ "kafka.producer.request-rate" ] }, "append_dimensions": { "service.name": "kafka/1" } } ] } } }

Raccolta di metriche di JVM

Puoi utilizzare l' CloudWatch agente per raccogliere i parametri della Java Virtual Machine (JVM). Per configurarlo, aggiungi una jvm sezione all'interno della jmx sezione del file di configurazione dell' CloudWatchagente.

È possibile raccogliere i seguenti parametri.

Metrica Dimensioni Description

jvm.classes.loaded

[DEFAULT]

Il numero totale di classi caricate.

Unità: nessuna

Statistiche significative: minimo, massimo, media

jvm.gc.collections.count

[DEFAULT], name

Il numero totale di rimozioni di oggetti inutili che si sono verificate.

Unità: nessuna

Statistiche significative: minimo, massimo, media

jvm.gc.collections.elapsed

[DEFAULT], name

Il tempo cumulativo e approssimativo trascorso di rimozione di oggetti inutili.

Unità: millisecondi

Statistiche significative: minimo, massimo, media

jvm.memory.heap.init

[DEFAULT]

La quantità iniziale di memoria richiesta dalla JVM al sistema operativo per l'heap.

Unità: byte

Statistiche significative: minimo, massimo, media

jvm.memory.heap.max

[DEFAULT]

La quantità massima di memoria che può essere utilizzata per l'heap.

Unità: byte

Statistiche significative: massimo

jvm.memory.heap.used

[DEFAULT]

L'attuale utilizzo della memoria heap.

Unità: byte

Statistiche significative: minimo, massimo, media

jvm.memory.heap.committed

[DEFAULT]

La quantità di memoria la cui disponibilità è garantita per l'heap.

Unità: byte

Statistiche significative: minimo, massimo, media

jvm.memory.nonheap.init

[DEFAULT]

La quantità iniziale di memoria richiesta dalla JVM al sistema operativo per scopi diversi dall'heap.

Unità: byte

Statistiche significative: minimo, massimo, media

jvm.memory.nonheap.max

[DEFAULT]

La quantità massima di memoria che può essere utilizzata per scopi diversi dall'heap.

Unità: byte

Statistiche significative: massimo

jvm.memory.nonheap.used

[DEFAULT]

L'attuale utilizzo della memoria non heap.

Unità: byte

Statistiche significative: minimo, massimo, media

jvm.memory.nonheap.committed

[DEFAULT]

La quantità di memoria la cui disponibilità è garantita per scopi diversi dall'heap.

Unità: byte

Statistiche significative: minimo, massimo, media

jvm.memory.pool.init

[DEFAULT], name

La quantità iniziale di memoria richiesta dalla JVM al sistema operativo per il pool di memoria.

Unità: byte

Statistiche significative: minimo, massimo, media

jvm.memory.pool.max

[DEFAULT], name

La quantità massima di memoria che può essere utilizzata per il pool di memoria.

Unità: byte

Statistiche significative: massimo

jvm.memory.pool.used

[DEFAULT], name

L'attuale utilizzo di memoria del pool di memoria.

Unità: byte

Statistiche significative: minimo, massimo, media

jvm.memory.pool.committed

[DEFAULT], name

La quantità di memoria la cui disponibilità è garantita per il pool di memoria.

Unità: byte

Statistiche significative: minimo, massimo, media

jvm.threads.count

[DEFAULT]

Il numero corrente di thread.

Unità: nessuna

Statistiche significative: minimo, massimo, media

Le metriche JVM vengono raccolte con le seguenti dimensioni:

Dimensione Description

[DEFAULT]

Su Amazon, EC2 per impostazione predefinita, l'host viene pubblicato anche come dimensione delle metriche raccolte dall' CloudWatch agente, a meno che tu non stia utilizzando il append_dimensions campo nella metrics sezione. Per ulteriori informazioni, consulta omit_hostname nella sezione dell'agente di Crea o modifica manualmente il file di configurazione CloudWatch dell'agente.

Su Amazon EKS, per impostazione predefinita, il contesto relativo a k8s viene pubblicato anche come dimensioni delle metriche (k8s.container.name, k8s.deployment.name, k8s.namespace.name, k8s.node.name, k8s.pod.name e k8s.replicaset.name). Questi possono essere filtrati utilizzando il campo aggregation_dimensions.

name

Per le metriche jvm.gc.collections, il valore è il nome del raccoglitore di oggetti inutili.

Per le metriche jvm.memory.pool, il valore è il nome del pool di memoria.

Raccolta di metriche di Kafka

Puoi utilizzare l' CloudWatch agente per raccogliere i parametri di Apache Kafka. Per configurarlo, aggiungi una o più delle seguenti sottosezioni all'interno della jmx sezione del file di configurazione dell'agente. CloudWatch

  • Utilizza una sezione kafka per raccogliere le metriche del broker Kafka.

  • Utilizza una sezione kafka-consumer per raccogliere le metriche del consumatore di Kafka.

  • Utilizza una sezione kafka-producer per raccogliere le metriche del produttore di Kafka.

Metriche del broker Kafka

È possibile raccogliere le seguenti metriche per i broker Kafka.

Metrica Dimensioni Description

kafka.message.count

[DEFAULT]

Il numero di messaggi ping ricevuti dal broker Kafka.

Unità: nessuna

Statistiche significative: minimo, massimo, media

kafka.request.count

[DEFAULT], type

Il numero di richieste ricevute dal broker Kafka.

Unità: nessuna

Statistiche significative: minimo, massimo, media

kafka.request.failed

[DEFAULT], type

Il numero di richieste al broker Kafka che hanno portato a un errore.

Unità: nessuna

Statistiche significative: minimo, massimo, media

kafka.request.time.total

[DEFAULT], type

Il tempo totale impiegato dal broker Kafka per soddisfare le richieste di servizio.

Unità: millisecondi

Statistiche significative: minimo, massimo, media

kafka.request.time.50p

[DEFAULT], type

Il 50° percentile impiegato dal broker Kafka per rispondere alle richieste di servizio.

Unità: millisecondi

Statistiche significative: minimo, massimo, media

kafka.request.time.99p

[DEFAULT], type

Il 99° percentile impiegato dal broker Kafka per rispondere alle richieste di servizio.

Unità: millisecondi

Statistiche significative: minimo, massimo, media

kafka.request.time.avg

[DEFAULT], type

Il tempo medio impiegato dal broker Kafka per soddisfare le richieste di servizio.

Unità: millisecondi

Statistiche significative: media

kafka.network.io

[DEFAULT], state

Il numero di byte ricevuti o inviati dal broker Kafka.

Unità: byte

Statistiche significative: minimo, massimo, media

kafka.purgatory.size

[DEFAULT], type

Il numero di richieste in attesa in purgatorio.

Unità: nessuna

Statistiche significative: minimo, massimo, media

kafka.partition.count

[DEFAULT]

Il numero di partizioni del broker Kafka.

Unità: nessuna

Statistiche significative: minimo, massimo, media

kafka.partition.offline

[DEFAULT]

Il numero di partizioni che sono offline.

Unità: nessuna

Statistiche significative: minimo, massimo, media

kafka.partition.under_replicated

[DEFAULT]

Il numero di partizioni sottoreplicate.

Unità: nessuna

Statistiche significative: minimo, massimo, media

kafka.isr.operation.count

[DEFAULT], operation

Il numero di operazioni di riduzione ed espansione delle repliche sincronizzate.

Unità: nessuna

Statistiche significative: minimo, massimo, media

kafka.max.lag

[DEFAULT]

Il ritardo massimo nei messaggi tra le repliche del follower e del leader.

Unità: nessuna

Statistiche significative: massimo

kafka.controller.active.count

[DEFAULT]

Il numero di controller attivi sul broker.

Unità: nessuna

Statistiche significative: minimo, massimo, media

kafka.leader.election.rate

[DEFAULT]

Il tasso di elezione dei leader. Se questo aumenta, indica gli errori del broker.

Unità: nessuna

Statistiche significative: minimo, massimo, media

kafka.unclean.election.rate

[DEFAULT]

Il tasso di elezione non corretto per i leader. Se questo aumenta, indica gli errori del broker.

Unità: nessuna

Statistiche significative: minimo, massimo, media

kafka.request.queue

[DEFAULT]

La dimensione della coda delle richieste.

Unità: nessuna

Statistiche significative: minimo, massimo, media

kafka.logs.flush.time.count

[DEFAULT]

Il numero di svuotamenti dei log.

Unità: millisecondi

Statistiche significative: minimo, massimo, media

kafka.logs.flush.time.median

[DEFAULT]

Il valore del 50° percentile del numero di svuotamenti dei log.

Unità: millisecondi

Statistiche significative: minimo, massimo, media

kafka.logs.flush.time.99p

[DEFAULT]

Il valore del 99° percentile del numero di svuotamenti dei log.

Unità: millisecondi

Statistiche significative: minimo, massimo, media

Le metriche del broker Kafka vengono raccolte con le seguenti dimensioni:

Dimensione Description

[DEFAULT]

Su Amazon, EC2 per impostazione predefinita, l'host viene pubblicato anche come dimensione delle metriche raccolte dall' CloudWatch agente, a meno che tu non stia utilizzando il append_dimensions campo nella metrics sezione. Per ulteriori informazioni, consulta omit_hostname nella sezione dell'agente di Crea o modifica manualmente il file di configurazione CloudWatch dell'agente.

Su Amazon EKS, per impostazione predefinita, il contesto relativo a k8s viene pubblicato anche come dimensioni delle metriche (k8s.container.name, k8s.deployment.name, k8s.namespace.name, k8s.node.name, k8s.pod.name e k8s.replicaset.name). Questi possono essere filtrati utilizzando il campo aggregation_dimensions.

type

Il tipo di richiesta. I valori possibili sono produce, fetch, fetchconsumer e fetchfollower.

state

La direzione del traffico di rete. I valori possibili sono in e out.

operation

Il tipo di operazione per la replica sincronizzata. I valori possibili sono shrink e expand.

Metriche dei consumatori di Kafka

È possibile raccogliere le seguenti metriche per i consumatori di Kafka.

Metrica Dimensioni Description

kafka.consumer.fetch-rate

[DEFAULT], client-id

Il numero di richieste di recupero per tutti gli argomenti al secondo.

Unità: nessuna

Statistiche significative: minimo, massimo, media

kafka.consumer.records-lag-max

[DEFAULT], client-id

Il numero di messaggi di ritardo del consumatore rispetto al produttore.

Unità: nessuna

Statistiche significative: minimo, massimo, media

kafka.consumer.total.bytes-consumed-rate

[DEFAULT], client-id

Il numero medio di byte consumati al secondo per tutti gli argomenti.

Unità: byte

Statistiche significative: media

kafka.consumer.total.fetch-size-avg

[DEFAULT], client-id

Il numero di byte recuperati per richiesta per tutti gli argomenti.

Unità: byte

Statistiche significative: minimo, massimo, media

kafka.consumer.total.records-consumed-rate

[DEFAULT], client-id

Il numero medio di record consumati al secondo per tutti gli argomenti.

Unità: nessuna

Statistiche significative: media

kafka.consumer.bytes-consumed-rate

[DEFAULT], client-id, topic

Il numero medio di byte consumati al secondo.

Unità: byte

Statistiche significative: media

kafka.consumer.fetch-size-avg

[DEFAULT], client-id, topic

Il numero di byte recuperati per richiesta.

Unità: byte

Statistiche significative: minimo, massimo, media

kafka.consumer.records-consumed-rate

[DEFAULT], client-id, topic

Il numero medio di record consumati al secondo.

Unità: nessuna

Statistiche significative: media

Le metriche del consumatore Kafka vengono raccolte con le seguenti dimensioni:

Dimensione Description

[DEFAULT]

Su Amazon, EC2 per impostazione predefinita, l'host viene pubblicato anche come dimensione delle metriche raccolte dall' CloudWatch agente, a meno che tu non stia utilizzando il append_dimensions campo nella metrics sezione. Per ulteriori informazioni, consulta omit_hostname nella sezione dell'agente di Crea o modifica manualmente il file di configurazione CloudWatch dell'agente.

Su Amazon EKS, per impostazione predefinita, il contesto relativo a k8s viene pubblicato anche come dimensioni delle metriche (k8s.container.name, k8s.deployment.name, k8s.namespace.name, k8s.node.name, k8s.pod.name e k8s.replicaset.name). Questi possono essere filtrati utilizzando il campo aggregation_dimensions.

client-id

ID del client.

topic

L'argomento Kafka.

Metriche dei produttori di Kafka

È possibile raccogliere le seguenti metriche per i produttori di Kafka.

Metrica Dimensioni Description

kafka.producer.io-wait-time-ns-avg

[DEFAULT], client-id

Il tempo medio impiegato dal I/O thread in attesa che un socket fosse pronto per la lettura o la scrittura.

Unità: nessuna

Statistiche significative: media

kafka.producer.outgoing-byte-rate

[DEFAULT], client-id

Il numero medio di byte in uscita inviati al secondo a tutti i server.

Unità: byte

Statistiche significative: media

kafka.producer.request-latency-avg

[DEFAULT], client-id

La latenza media delle richieste.

Unità: millisecondi

Statistiche significative: media

kafka.producer.request-rate

[DEFAULT], client-id

Il numero medio di richieste inviate al secondo.

Unità: nessuna

Statistiche significative: media

kafka.producer.response-rate

[DEFAULT], client-id

Il numero di risposte ricevute al secondo.

Unità: nessuna

Statistiche significative: minimo, massimo, media

kafka.producer.byte-rate

[DEFAULT], client-id, topic

Il numero medio di byte inviati al secondo per un argomento.

Unità: byte

Statistiche significative: media

kafka.producer.compression-rate

[DEFAULT], client-id, topic

Il tasso di compressione medio dei batch di record per un argomento.

Unità: nessuna

Statistiche significative: media

kafka.producer.record-error-rate

[DEFAULT], client-id, topic

Il numero medio al secondo di invio di record che hanno generato errori per un argomento.

Unità: nessuna

Statistiche significative: media

kafka.producer.record-retry-rate

[DEFAULT], client-id, topic

Il numero medio al secondo di record ritentati inviati per un argomento.

Unità: nessuna

Statistiche significative: media

kafka.producer.record-send-rate

[DEFAULT], client-id, topic

Il numero medio di record inviati al secondo per un argomento.

Unità: nessuna

Statistiche significative: media

Le metriche del produttore Kafka vengono raccolte con le seguenti dimensioni:

Dimensione Description

[DEFAULT]

Su Amazon, EC2 per impostazione predefinita, l'host viene pubblicato anche come dimensione delle metriche raccolte dall' CloudWatch agente, a meno che tu non stia utilizzando il append_dimensions campo nella metrics sezione. Per ulteriori informazioni, consulta omit_hostname nella sezione dell'agente di Crea o modifica manualmente il file di configurazione CloudWatch dell'agente.

Su Amazon EKS, per impostazione predefinita, il contesto relativo a k8s viene pubblicato anche come dimensioni delle metriche (k8s.container.name, k8s.deployment.name, k8s.namespace.name, k8s.node.name, k8s.pod.name e k8s.replicaset.name). Questi possono essere filtrati utilizzando il campo aggregation_dimensions.

client-id

ID del client.

topic

L'argomento Kafka.

Raccolta di metriche di Tomcat

Puoi utilizzare l' CloudWatch agente per raccogliere le metriche di Apache Tomcat. Per configurarlo, aggiungi una tomcat sezione all'interno della metrics_collected sezione del file di configurazione dell' CloudWatch agente.

È possibile raccogliere i seguenti parametri.

Metrica Dimensioni Description

tomcat.sessions

[DEFAULT]

Il numero di sessioni attive nel dominio.

Unità: nessuna

Statistiche significative: minimo, massimo, media

tomcat.errors

[DEFAULT], proto_handler

Il numero di errori riscontrati.

Unità: nessuna

Statistiche significative: minimo, massimo, media

tomcat.processing_time

[DEFAULT], proto_handler

Il tempo totale di elaborazione.

Unità: millisecondi

Statistiche significative: minimo, massimo, media

tomcat.traffic

[DEFAULT], proto_handler

Il numero di byte inviati e ricevuti.

Unità: byte

Statistiche significative: minimo, massimo, media

tomcat.threads

[DEFAULT], proto_handler

Il numero di thread.

Unità: nessuna

Statistiche significative: minimo, massimo, media

tomcat.max_time

[DEFAULT], proto_handler, direction

Tempo massimo per elaborare una richiesta.

Unità: millisecondi

Statistiche significative: massimo

tomcat.request_count

[DEFAULT], proto_handler

Il totale delle richieste.

Unità: nessuna

Statistiche significative: minimo, massimo, media

Le metriche Tomcat vengono raccolte con le seguenti dimensioni:

Dimensione Description

[DEFAULT]

Su Amazon, EC2 per impostazione predefinita, l'host viene pubblicato anche come dimensione delle metriche raccolte dall' CloudWatch agente, a meno che tu non stia utilizzando il append_dimensions campo nella metrics sezione. Per ulteriori informazioni, consulta omit_hostname nella sezione dell'agente di Crea o modifica manualmente il file di configurazione CloudWatch dell'agente.

Su Amazon EKS, per impostazione predefinita, il contesto relativo a k8s viene pubblicato anche come dimensioni delle metriche (k8s.container.name, k8s.deployment.name, k8s.namespace.name, k8s.node.name, k8s.pod.name e k8s.replicaset.name). Questi possono essere filtrati utilizzando il campo aggregation_dimensions.

proto_handler

proto_handler è un identificativo per un connettore, fornito nel formato <protocol>-<type>-<port> (ad esempio, http-nio-8080).

direction

La direzione del traffico. I valori possibili sono received e sent.