Verwaltete Prometheus-Collectors für Amazon MSK einrichten - Amazon Managed Service für Prometheus

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

Verwaltete Prometheus-Collectors für Amazon MSK einrichten

Um einen Amazon Managed Service for Prometheus Collector zu verwenden, erstellen Sie einen Scraper, der Metriken in Ihrem Amazon Managed Streaming for Apache Kafka Kafka-Cluster erkennt und abruft. Sie können auch einen Scraper erstellen, der in Amazon Elastic Kubernetes Service integriert ist. Weitere Informationen finden Sie unter Integrieren von Amazon EKS.

Einen Scraper erstellen

Ein Amazon Managed Service for Prometheus Collector besteht aus einem Scraper, der Metriken aus einem Amazon MSK-Cluster erkennt und sammelt. Amazon Managed Service für Prometheus verwaltet den Scraper für Sie und bietet Ihnen so die Skalierbarkeit, Sicherheit und Zuverlässigkeit, die Sie benötigen, ohne Instances, Agenten oder Scraper selbst verwalten zu müssen.

Sie können einen Scraper entweder mithilfe der AWS API oder AWS CLI wie in den folgenden Verfahren beschrieben erstellen.

Es gibt einige Voraussetzungen, um Ihren eigenen Scraper zu erstellen:

  • Sie müssen einen Amazon MSK-Cluster erstellt haben.

  • Konfigurieren Sie die Sicherheitsgruppe Ihres Amazon MSK-Clusters so, dass eingehender Datenverkehr auf den Ports 11001 (JMX Exporter) und 11002 (Node Exporter) innerhalb Ihrer Amazon VPC zugelassen wird, da der Scraper Zugriff auf diese DNS-Einträge benötigt, um Prometheus-Metriken zu sammeln.

  • In der Amazon VPC, in der sich der Amazon MSK-Cluster befindet, muss DNS aktiviert sein.

Anmerkung

Der Cluster wird dem Scraper über seinen Amazon-Ressourcennamen (ARN) zugeordnet. Wenn Sie einen Cluster löschen und dann einen neuen mit demselben Namen erstellen, wird der ARN für den neuen Cluster wiederverwendet. Aus diesem Grund versucht der Scraper, Metriken für den neuen Cluster zu sammeln. Sie löschen Scraper getrennt vom Löschen des Clusters.

To create a scraper using the AWS API

Verwenden Sie den CreateScraper API-Vorgang, um einen Scraper mit der AWS API zu erstellen. Im folgenden Beispiel wird ein Scraper in der Region USA Ost (Nord-Virginia) erstellt. Ersetzen Sie den example Inhalt durch Ihre Amazon MSK-Clusterinformationen und geben Sie Ihre Scraper-Konfiguration an.

Anmerkung

Konfigurieren Sie die Sicherheitsgruppe und die Subnetze so, dass sie Ihrem Zielcluster entsprechen. Schließen Sie mindestens zwei Subnetze in zwei Availability Zones ein.

POST /scrapers HTTP/1.1 Content-Length: 415 Authorization: AUTHPARAMS X-Amz-Date: 20201201T193725Z User-Agent: aws-cli/1.18.147 Python/2.7.18 Linux/5.4.58-37.125.amzn2int.x86_64 botocore/1.18.6 { "alias": "myScraper", "destination": { "ampConfiguration": { "workspaceArn": "arn:aws:aps:us-east-1:123456789012:workspace/ws-workspace-id" } }, "source": { "vpcConfiguration": { "securityGroupIds": ["sg-security-group-id"], "subnetIds": ["subnet-subnet-id-1", "subnet-subnet-id-2"] } }, "scrapeConfiguration": { "configurationBlob": base64-encoded-blob } }

In diesem Beispiel erfordert der scrapeConfiguration Parameter eine Base64-kodierte Prometheus-Konfigurations-YAML-Datei, die die DNS-Einträge des MSK-Clusters spezifiziert.

Jeder DNS-Eintrag steht für einen Broker-Endpunkt in einer bestimmten Availability Zone, sodass Clients Verbindungen zu Brokern herstellen können, die über die von Ihnen ausgewählten Standorte verteilt sind, um eine hohe Verfügbarkeit zu gewährleisten. AZs

Die Anzahl der DNS-Einträge in Ihren MSK-Clustereigenschaften entspricht der Anzahl der Broker-Knoten und Availability Zones in Ihrer Clusterkonfiguration:

  • Standardkonfiguration — 3 Broker-Knoten mit 3 AZs = 3 DNS-Einträgen

  • Benutzerdefinierte Konfiguration — 2 Broker-Knoten mit 2 AZs = 2 DNS-Einträgen

Um die DNS-Einträge für Ihren MSK-Cluster abzurufen, öffnen Sie die MSK-Konsole zu Hause? https://console.aws.amazon.com/msk/ region=us-east-1#/home/. Gehen Sie zu Ihrem MSK-Cluster. Wählen Sie Properties, Brokers und Endpoints aus.

Sie haben zwei Möglichkeiten, Prometheus so zu konfigurieren, dass Metriken aus Ihrem MSK-Cluster abgerufen werden:

  1. DNS-Auflösung auf Clusterebene (empfohlen) — Verwenden Sie den DNS-Basisnamen des Clusters, um automatisch alle Broker zu ermitteln. Wenn Ihr Broker-Endpunkt dies istb-1.clusterName.xxx.xxx.xxx, verwenden Sie clusterName.xxx.xxx.xxx ihn als DNS-Eintrag. Auf diese Weise kann Prometheus alle Broker im Cluster automatisch scrapen.

    Individuelle Broker-Endpunkte — Geben Sie jeden Broker-Endpunkt einzeln an, um eine detaillierte Steuerung zu gewährleisten. Verwenden Sie die vollständigen Broker-IDs (b-1, b-2) in Ihrer Konfiguration. Zum Beispiel:

    dns_sd_configs: - names: - b-1.clusterName.xxx.xxx.xxx - b-2.clusterName.xxx.xxx.xxx - b-3.clusterName.xxx.xxx.xxx
Anmerkung

clusterName.xxx.xxx.xxxErsetzen Sie in der Konsole durch Ihren tatsächlichen MSK-Cluster-Endpunkt. AWS

Weitere Informationen finden Siehttps://prometheus.io/docs/prometheus/latest/configuration/configuration/#dns_sd_config <dns_sd_config>in der Prometheus-Dokumentation.

Im Folgenden finden Sie ein Beispiel für die Scraper-Konfigurationsdatei:

global: scrape_interval: 30s external_labels: clusterArn: msk-test-1 scrape_configs: - job_name: msk-jmx scheme: http metrics_path: /metrics scrape_timeout: 10s dns_sd_configs: - names: - dns-record-1 - dns-record-2 - dns-record-3 type: A port: 11001 relabel_configs: - source_labels: [__meta_dns_name] target_label: broker_dns - source_labels: [__address__] target_label: instance regex: '(.*)' replacement: '${1}' - job_name: msk-node scheme: http metrics_path: /metrics scrape_timeout: 10s dns_sd_configs: - names: - dns-record-1 - dns-record-2 - dns-record-3 type: A port: 11002 relabel_configs: - source_labels: [__meta_dns_name] target_label: broker_dns - source_labels: [__address__] target_label: instance regex: '(.*)' replacement: '${1}'

Führen Sie einen der folgenden Befehle aus, um die YAML-Datei in Base64 zu konvertieren. Sie können die Datei auch mit einem beliebigen Online-Base64-Konverter konvertieren.

Beispiel Linux/macOS
echo -n scraper config updated with dns records | base64
Beispiel Windows PowerShell
[Convert]::ToBase64String([System.Text.Encoding]::UTF8.GetBytes(scraper config updated with dns records))
To create a scraper using the AWS CLI

Verwenden Sie den create-scraper Befehl, um einen Scraper mit dem AWS Command Line Interface zu erstellen. Im folgenden Beispiel wird ein Scraper in der Region USA Ost (Nord-Virginia) erstellt. Ersetzen Sie den example Inhalt durch Ihre Amazon MSK-Clusterinformationen und geben Sie Ihre Scraper-Konfiguration an.

Anmerkung

Konfigurieren Sie die Sicherheitsgruppe und die Subnetze so, dass sie Ihrem Zielcluster entsprechen. Schließen Sie mindestens zwei Subnetze in zwei Availability Zones ein.

aws amp create-scraper \ --source vpcConfiguration="{securityGroupIds=['sg-security-group-id'],subnetIds=['subnet-subnet-id-1', 'subnet-subnet-id-2']}" \ --scrape-configuration configurationBlob=base64-encoded-blob \ --destination ampConfiguration="{workspaceArn='arn:aws:aps:us-west-2:123456789012:workspace/ws-workspace-id'}"
  • Im Folgenden finden Sie eine vollständige Liste der Scraper-Operationen, die Sie mit der AWS API verwenden können:

    Erstellen Sie einen Scraper mit der CreateScraper API-Operation.

  • Listen Sie Ihre vorhandenen Scraper mit der ListScrapers API-Operation auf.

  • Aktualisieren Sie den Alias, die Konfiguration oder das Ziel eines Scrapers mit der UpdateScraperAPI-Operation.

  • Löschen Sie einen Scraper mit der DeleteScraper API-Operation.

  • Erfahren Sie mehr über einen Scraper mit der DescribeScraper API-Operation.

Kontoübergreifende Einrichtung

Gehen Sie wie folgt vor, um einen Scraper in einer kontoübergreifenden Konfiguration zu erstellen, wenn sich Ihr Amazon MSK-Cluster, aus dem Sie Metriken sammeln möchten, in einem anderen Konto befindet als der Amazon Managed Service for Prometheus-Collector.

Wenn Sie beispielsweise zwei Konten haben, das erste Quellkonto, auf account_id_source dem sich das Amazon MSK befindet, und ein zweites Zielkonto, in account_id_target dem sich der Amazon Managed Service for Prometheus Workspace befindet.

Um einen Scraper in einer kontoübergreifenden Konfiguration zu erstellen
  1. Erstellen Sie im Quellkonto eine Rolle arn:aws:iam::111122223333:role/Source und fügen Sie die folgende Vertrauensrichtlinie hinzu.

    { "Effect": "Allow", "Principal": { "Service": [ "scraper.aps.amazonaws.com" ] }, "Action": "sts:AssumeRole", "Condition": { "ArnEquals": { "aws:SourceArn": "arn:aws:aps:aws-region:111122223333:scraper/scraper-id" }, "StringEquals": { "AWS:SourceAccount": "111122223333" } } }
  2. Für jede Kombination aus Quelle (Amazon MSK-Cluster) und Ziel (Amazon Managed Service for Prometheus Workspace) müssen Sie eine Rolle erstellen arn:aws:iam::444455556666:role/Target und die folgende Vertrauensrichtlinie mit Berechtigungen für hinzufügen. AmazonPrometheusRemoteWriteAccess

    { "Effect": "Allow", "Principal": { "AWS": "arn:aws:iam::111122223333:role/Source" }, "Action": "sts:AssumeRole", "Condition": { "StringEquals": { "sts:ExternalId": "arn:aws:aps:aws-region:111122223333:scraper/scraper-id" } } }
  3. Erstellen Sie einen Scraper mit der Option. --role-configuration

    aws amp create-scraper \ --source vpcConfiguration="{subnetIds=[subnet-subnet-id], "securityGroupIds": ["sg-security-group-id"]}" \ --scrape-configuration configurationBlob=<base64-encoded-blob> \ --destination ampConfiguration="{workspaceArn='arn:aws:aps:aws-region:444455556666:workspace/ws-workspace-id'}"\ --role-configuration '{"sourceRoleArn":"arn:aws:iam::111122223333:role/Source", "targetRoleArn":"arn:aws:iam::444455556666:role/Target"}'
  4. Bestätigen Sie die Erstellung des Scrapers.

    aws amp list-scrapers { "scrapers": [ { "scraperId": "s-example123456789abcdef0", "arn": "arn:aws:aps:aws-region:111122223333:scraper/s-example123456789abcdef0": "arn:aws:iam::111122223333:role/Source", "status": "ACTIVE", "creationTime": "2025-10-27T18:45:00.000Z", "lastModificationTime": "2025-10-27T18:50:00.000Z", "tags": {}, "statusReason": "Scraper is running successfully", "source": { "vpcConfiguration": { "subnetIds": ["subnet-subnet-id"], "securityGroupIds": ["sg-security-group-id"] } }, "destination": { "ampConfiguration": { "workspaceArn": "arn:aws:aps:aws-region:444455556666:workspace/ws-workspace-id'" } }, "scrapeConfiguration": { "configurationBlob": "<base64-encoded-blob>" } } ] }

Wechsel zwischen einer RoleConfiguration serviceverknüpften Rolle

Wenn Sie zurück zu einer serviceverknüpften Rolle wechseln möchten, anstatt in einen Amazon Managed Service for Prometheus Workspace RoleConfiguration zu schreiben, müssen Sie den aktualisieren UpdateScraper und einen Workspace im selben Konto wie der Scraper ohne die bereitstellen. RoleConfiguration Der RoleConfiguration wird aus dem Scraper entfernt und die Rolle, die mit dem Service verknüpft ist, wird verwendet.

Wenn Sie die Arbeitsbereiche in demselben Konto wie der Scraper ändern und den weiterhin verwenden möchtenRoleConfiguration, müssen Sie erneut die Option On angeben. RoleConfiguration UpdateScraper

Suchen und Löschen von Scrapern

Sie können die AWS API oder die verwenden AWS CLI , um die Scraper in Ihrem Konto aufzulisten oder zu löschen.

Anmerkung

Stellen Sie sicher, dass Sie die neueste Version des AWS CLI oder SDK verwenden. Die neueste Version bietet Ihnen die neuesten Features und Funktionen sowie Sicherheitsupdates. Alternativ können Sie AWS CloudShell, was immer eine up-to-date Befehlszeilenerfahrung bietet, automatisch verwenden.

Die ListScrapers-API-Operation listet alle Scraper in Ihrem Konto auf.

Rufen Sie alternativ mit dem AWS CLI folgenden Befehl auf:

aws amp list-scrapers

ListScrapers gibt alle Scraper in Ihrem Konto zurück, zum Beispiel:

{ "scrapers": [ { "scraperId": "s-1234abcd-56ef-7890-abcd-1234ef567890", "arn": "arn:aws:aps:aws-region:123456789012:scraper/s-1234abcd-56ef-7890-abcd-1234ef567890", "roleArn": "arn:aws:iam::123456789012:role/aws-service-role/AWSServiceRoleForAmazonPrometheusScraper_1234abcd-2931", "status": { "statusCode": "DELETING" }, "createdAt": "2023-10-12T15:22:19.014000-07:00", "lastModifiedAt": "2023-10-12T15:55:43.487000-07:00", "tags": {}, "source": { "vpcConfiguration": { "securityGroupIds": [ "sg-1234abcd5678ef90" ], "subnetIds": [ "subnet-abcd1234ef567890", "subnet-1234abcd5678ab90" ] } }, "destination": { "ampConfiguration": { "workspaceArn": "arn:aws:aps:aws-region:123456789012:workspace/ws-1234abcd-5678-ef90-ab12-cdef3456a78" } } } ] }

Suchen Sie zum Löschen eines Scrapers mithilfe der ListScrapers-Operation die scraperId für den Scraper, den Sie löschen möchten, und verwenden Sie dann die DeleteScraper-Operation, um ihn zu löschen.

Alternativ rufen Sie mit AWS CLI dem auf:

aws amp delete-scraper --scraper-id scraperId

Von Amazon MSK gesammelte Metriken

Bei der Integration mit Amazon MSK erfasst der Amazon Managed Service for Prometheus Collector automatisch die folgenden Metriken:

Metrik Beschreibung/Zweck

jmx_config_reload_failure_total

Gesamtzahl der Fehler, mit denen der JMX-Exporter seine Konfigurationsdatei neu laden konnte.

jmx_scrape_duration_seconds

Zeitaufwand für das Scraping von JMX-Metriken in Sekunden für den aktuellen Erfassungszyklus.

jmx_scrape_error

Gibt an, ob beim Scraping von JMX-Metriken ein Fehler aufgetreten ist (1 = Fehler, 0 = Erfolg).

HeapMemoryUsageJava_lang_Memory_ _used

Menge des aktuell von der JVM verwendeten Heap-Speichers (in Byte).

java_lang_Memory_ _max HeapMemoryUsage

Maximale Menge an Heap-Speicher (in Byte), die für die Speicherverwaltung verwendet werden kann.

Java_lang_Memory_ _verwendet NonHeapMemoryUsage

Menge des Non-Heap-Speichers (in Byte), der derzeit von der JVM verwendet wird.

KAFKA_Cluster_Partition_Value

Aktueller Status oder Wert in Bezug auf Kafka-Cluster-Partitionen, aufgeschlüsselt nach Partitions-ID und Thema.

kafka_consumer_consumer_coordinator_metrics_assigned_partitions

Anzahl der Partitionen, die diesem Verbraucher derzeit zugewiesen sind.

kafka_consumer_consumer_coordinator_metrics_commit_latency_avg

Durchschnittliche Zeit in Millisekunden für die Übertragung von Offsets.

kafka_consumer_consumer_coordinator_metrics_commit_rate

Anzahl der Offset-Commits pro Sekunde.

kafka_consumer_consumer_coordinator_metrics_failed_rebalance_total

Gesamtzahl der fehlgeschlagenen Neugewichte bei Verbrauchergruppen.

kafka_consumer_consumer_coordinator_metrics_last_heartbeat_seconds_ago

Anzahl der Sekunden, seit der letzte Heartbeat an den Koordinator gesendet wurde.

kafka_consumer_consumer_coordinator_metrics_rebalance_latency_avg

Durchschnittliche Zeit, die für die Neugewichtung von Verbrauchergruppen benötigt wird, in Millisekunden.

kafka_consumer_consumer_coordinator_metrics_rebalance_total

Gesamtzahl der Neugewichte bei Verbrauchergruppen.

kafka_consumer_consumer_fetch_manager_metrics_bytes_consumed_rate

Durchschnittliche Anzahl der vom Verbraucher pro Sekunde verbrauchten Byte.

kafka_consumer_consumer_fetch_manager_metrics_fetch_latency_avg

Durchschnittliche Dauer einer Abrufanforderung in Millisekunden.

kafka_consumer_consumer_fetch_manager_metrics_fetch_rate

Anzahl der Abrufanforderungen pro Sekunde.

kafka_consumer_consumer_fetch_manager_metrics_records_consumed_rate

Durchschnittliche Anzahl verbrauchter Datensätze pro Sekunde.

kafka_consumer_consumer_fetch_manager_metrics_records_lag_max

Maximale Verzögerung in Bezug auf die Anzahl der Datensätze für jede Partition in diesem Consumer.

kafka_consumer_consumer_metrics_connection_count

Aktuelle Anzahl aktiver Verbindungen.

kafka_consumer_metrics_incoming_byte_rate

Durchschnittliche Anzahl der pro Sekunde von allen Servern empfangenen Byte.

kafka_consumer_consumer_metrics_last_poll_seconds_ago

Anzahl der Sekunden seit dem letzten Aufruf von consumer poll ().

kafka_consumer_consumer_metrics_request_rate

Anzahl der pro Sekunde gesendeten Anfragen.

kafka_consumer_consumer_metrics_response_rate

Anzahl der pro Sekunde eingegangenen Antworten.

kafka_consumer_group_ _Value ConsumerLagMetrics

Aktueller Wert für eine Verbrauchergruppe, der angibt, wie weit der Verbraucher hinterherhinkt.

KafkaControllerkafka_controller_ _Value

Aktueller Status oder Wert des Kafka-Controllers (1 = aktiver Controller, 0 = nicht aktiv).

ControllerEventManagerkafka_controller_ _Count

Gesamtzahl der verarbeiteten Controller-Ereignisse.

ControllerEventManagerkafka_controller_ _Mean

Durchschnittliche (durchschnittliche) Zeit, die zur Verarbeitung von Controller-Ereignissen benötigt wird.

ControllerStatskafka_controller_ _ MeanRate

Durchschnittliche Rate der Controller-Statistikoperationen pro Sekunde.

kafka_coordinator_group_ _Value GroupMetadataManager

Aktueller Status oder Wert des Gruppenmetadaten-Managers für Nutzergruppen.

kafka_log_ _Anzahl LogFlushStats

Gesamtzahl der Log-Flush-Operationen.

kafka_log_ LogFlushStats _Mean

Durchschnittliche (durchschnittliche) Zeit, die für Log-Flush-Operationen benötigt wird.

kafka_log_ _ LogFlushStats MeanRate

Durchschnittliche Rate der Log-Flush-Operationen pro Sekunde.

kafka_network_ _Anzahl RequestMetrics

Gesamtzahl der verarbeiteten Netzwerkanfragen.

kafka_network_ RequestMetrics _Mean

Durchschnittliche (durchschnittliche) Zeit für die Bearbeitung von Netzwerkanfragen.

kafka_network_ _ RequestMetrics MeanRate

Durchschnittliche Rate von Netzwerkanfragen pro Sekunde.

Kafka_Network_Acceptor_ MeanRate

Durchschnittliche Rate der akzeptierten Verbindungen pro Sekunde.

KAFKA_Server_Fetch_Queue_Size

Aktuelle Größe der Warteschlange für Abrufanforderungen.

Kafka_Server_Produce_Queue_Size

Aktuelle Größe der Warteschlange für Produktionsanfragen.

Kafka_Server_Request_Queue_Size

Aktuelle Größe der allgemeinen Anforderungswarteschlange.

kafka_server_ _Anzahl BrokerTopicMetrics

Gesamtzahl der Broker-Thema-Operationen (Nachrichten). in/out, bytes in/out

kafka_server_ _ BrokerTopicMetrics MeanRate

Durchschnittliche Rate der Broker-Thema-Operationen pro Sekunde.

kafka_server_ _ BrokerTopicMetrics OneMinuteRate

Gleitender Durchschnittskurs der Transaktionen im Broker-Thema von einer Minute.

kafka_server_ _Wert DelayedOperationPurgatory

Aktuelle Anzahl verzögerter Operationen im Fegefeuer (die darauf warten, abgeschlossen zu werden).

kafka_server_ _ DelayedFetchMetrics MeanRate

Durchschnittliche Rate verzögerter Abrufvorgänge pro Sekunde.

kafka_server_ _Wert FetcherLagMetrics

Aktueller Verzögerungswert für Replikat-Fetcher-Threads (wie weit hinter dem Leader zurückgeblieben).

kafka_server_ _ FetcherStats MeanRate

Durchschnittliche Rate von Abruf-Vorgängen pro Sekunde.

kafka_server_ _Wert ReplicaManager

Aktueller Status oder Wert des Replikat-Managers.

kafka_server_ _ ReplicaManager MeanRate

Durchschnittliche Rate von Replica Manager-Vorgängen pro Sekunde.

kafka_server_ _byte_rate LeaderReplication

Rate der pro Sekunde replizierten Byte für Partitionen, bei denen dieser Broker führend ist.

kafka_server_group_coordinator_metrics_group_completed_rebalance_count

Gesamtzahl der abgeschlossenen Neugewichte bei Verbrauchergruppen.

kafka_server_group_coordinator_metrics_offset_commit_count

Gesamtzahl der Offset-Commit-Operationen.

kafka_server_group_coordinator_metrics_offset_commit_rate

Rate der Offset-Commit-Operationen pro Sekunde.

kafka_server_socket_server_metrics_connection_count

Aktuelle Anzahl aktiver Verbindungen.

kafka_server_socket_server_metrics_connection_creation_rate

Rate der Erstellung neuer Verbindungen pro Sekunde.

kafka_server_socket_server_metrics_connection_close_rate

Rate der Verbindungsabbrüche pro Sekunde.

kafka_server_socket_server_metrics_failed_authentication_total

Gesamtzahl der fehlgeschlagenen Authentifizierungsversuche.

kafka_server_socket_server_metrics_incoming_byte_rate

Rate der eingehenden Byte pro Sekunde.

kafka_server_socket_server_metrics_outgoing_byte_rate

Rate der ausgehenden Byte pro Sekunde.

kafka_server_socket_server_metrics_request_rate

Rate der Anfragen pro Sekunde.

kafka_server_socket_server_metrics_response_rate

Rate der Antworten pro Sekunde.

kafka_server_socket_server_metrics_network_io_rate

Rate der Netzwerkoperationen pro Sekunde. I/O

kafka_server_socket_server_metrics_io_ratio

Bruchteil der für Operationen aufgewendeten Zeit. I/O

kafka_server_controller_channel_metrics_connection_count

Aktuelle Anzahl aktiver Verbindungen für Controller-Kanäle.

kafka_server_controller_channel_metrics_incoming_byte_rate

Rate der eingehenden Byte pro Sekunde für Controllerkanäle.

kafka_server_controller_channel_metrics_outgoing_byte_rate

Rate der ausgehenden Byte pro Sekunde für Controllerkanäle.

kafka_server_controller_channel_metrics_request_rate

Rate der Anfragen pro Sekunde für Controllerkanäle.

kafka_server_replica_fetcher_metrics_connection_count

Aktuelle Anzahl aktiver Verbindungen für den Replica Fetcher.

kafka_server_replica_fetcher_metrics_incoming_byte_rate

Rate der eingehenden Byte pro Sekunde für den Replikat-Fetcher.

kafka_server_replica_fetcher_metrics_request_rate

Rate der Anfragen pro Sekunde für den Replica Fetcher.

kafka_server_replica_fetcher_metrics_failed_authentication_total

Gesamtzahl der fehlgeschlagenen Authentifizierungsversuche für den Replica Fetcher.

kafka_server_ _Anzahl ZooKeeperClientMetrics

Gesamtzahl der Client-Operationen. ZooKeeper

kafka_server_ ZooKeeperClientMetrics _Mean

Mittlere Latenz der Client-Operationen. ZooKeeper

kafka_server_ _Wert KafkaServer

Aktueller Status oder Wert des Kafka-Servers (zeigt normalerweise an, dass der Server läuft).

node_cpu_seconds_total

Gesamtzahl der in jedem Modus (Benutzer, System, Leerlauf usw.) CPUs verbrachten Sekunden, aufgeschlüsselt nach CPU und Modus.

node_disk_read_bytes_total

Gesamtzahl der erfolgreich von Festplatten gelesenen Byte, aufgeschlüsselt nach Geräten.

node_disk_reads_completed_total

Gesamtzahl der erfolgreich abgeschlossenen Lesevorgänge für Festplatten, aufgeschlüsselt nach Geräten.

node_disk_writes_completed_total

Gesamtzahl der erfolgreich abgeschlossenen Schreibvorgänge für Festplatten, aufgeschlüsselt nach Geräten.

node_disk_written_bytes_total

Gesamtzahl der erfolgreich auf Festplatten geschriebenen Byte, aufgeschlüsselt nach Geräten.

node_filesystem_avail_bytes

Verfügbarer Dateisystemspeicher in Byte für Benutzer ohne Root-Rechte, aufgeschlüsselt nach Gerät und Einhängepunkt.

node_filesystem_size_bytes

Gesamtgröße des Dateisystems in Byte, aufgeschlüsselt nach Gerät und Einhängepunkt.

node_filesystem_free_bytes

Freier Speicherplatz im Dateisystem in Byte, aufgeschlüsselt nach Gerät und Einhängepunkt.

node_filesystem_files

Gesamtzahl der Dateiknoten (Inodes) im Dateisystem, aufgeschlüsselt nach Gerät und Einhängepunkt.

node_filesystem_files_free

Anzahl der freien Dateiknoten (Inodes) im Dateisystem, aufgeschlüsselt nach Gerät und Einhängepunkt.

node_filesystem_readonly

Gibt an, ob das Dateisystem schreibgeschützt eingehängt ist (1 = schreibgeschützt, 0 = lesend und schreibgeschützt).

node_filesystem_device_error

Zeigt an, ob beim Abrufen der Dateisystemstatistiken ein Fehler aufgetreten ist (1 = Fehler, 0 = Erfolg).

Einschränkungen

Die aktuelle Amazon MSK-Integration mit Amazon Managed Service for Prometheus hat die folgenden Einschränkungen:

  • Wird nur für von Amazon MSK bereitgestellte Cluster unterstützt (nicht verfügbar für Amazon MSK Serverless)

  • Nicht unterstützt für Amazon MSK-Cluster mit aktiviertem öffentlichen Zugriff in Kombination mit dem KRaft Metadatenmodus

  • Wird für Amazon MSK Express-Broker nicht unterstützt

  • Unterstützt derzeit eine 1:1 -Zuordnung zwischen Amazon MSK-Clustern und Amazon Managed Service für Prometheus Collectors/Workspaces