

本文属于机器翻译版本。若本译文内容与英语原文存在差异，则一律以英文原文为准。

# 为 Amazon MSK 设置托管式 Prometheus 收集器
<a name="prom-msk-integration"></a>

要使用 Amazon Managed Service for Prometheus 收集器，您必须创建一个抓取器，用于发现和提取 Amazon Managed Streaming for Apache Kafka 集群中的指标。还可以创建与 Amazon Elastic Kubernetes Service 集成的抓取器。有关更多信息，请参阅[集成 Amazon EKS](https://docs.aws.amazon.com/prometheus/latest/userguide/AMP-collector-how-to.html)。

## 创建抓取程序
<a name="prom-msk-create-scraper"></a>

Amazon Managed Service for Prometheus 收集器由一个抓取器组成，该抓取器用于发现和收集 Amazon MSK 集群中的指标。Amazon Managed Service for Prometheus 为您管理抓取程序，为您提供所需的可扩展性、安全性和可靠性，无需您自行管理任何实例、代理或抓取程序。

您可以使用 AWS API 或按以下步骤 AWS CLI 所述创建抓取器。

创建您自己的抓取程序时有以下几个先决条件：
+ 您必须先创建 Amazon MSK 集群。
+ 将 Amazon MSK 集群的安全组配置为支持 Amazon VPC 内的端口 **11001（JMX 导出程序）**和 **11002（节点导出程序）**上的入站流量，因为抓取器需要访问这些 DNS 记录才能收集 Prometheus 指标。
+ Amazon MSK 集群所在的 Amazon VPC 必须[启用了 DNS](https://docs.aws.amazon.com/vpc/latest/userguide/AmazonDNS-concepts.html)。

**注意**  
集群将通过其 Amazon 资源名称（ARN）与抓取器相关联。如果删除一个集群，然后创建一个同名的新集群，新集群将重新使用 ARN。因此，抓取器将尝试收集新集群的指标。[删除抓取器](#prom-msk-delete-scraper)与删除集群是分开的。

------
#### [ To create a scraper using the AWS API ]

使用 `CreateScraper` API 操作使用 AP AWS I 创建抓取工具。以下示例在美国东部（弗吉尼亚州北部）区域中创建抓取器。将*example*内容替换为您的 Amazon MSK 集群信息，并提供您的抓取器配置。

**注意**  
配置安全组和子网以匹配您的目标集群。至少包含跨两个可用区的两个子网。

```
                POST /scrapers HTTP/1.1
Content-Length: 415 
Authorization: AUTHPARAMS
X-Amz-Date: 20201201T193725Z
User-Agent: aws-cli/1.18.147 Python/2.7.18 Linux/5.4.58-37.125.amzn2int.x86_64 botocore/1.18.6

{
    "alias": "myScraper",
    "destination":  {
        "ampConfiguration": {
            "workspaceArn": "arn:aws:aps:us-east-1:123456789012:workspace/ws-workspace-id"
        }
    },
    "source": {
        "vpcConfiguration": {
            "securityGroupIds": ["sg-security-group-id"],
            "subnetIds": ["subnet-subnet-id-1", "subnet-subnet-id-2"]
        }
    },
    "scrapeConfiguration": {
        "configurationBlob": base64-encoded-blob
    }
}
```

在示例中，`scrapeConfiguration` 参数需要一个 base64 编码的 Prometheus 配置 YAML 文件，该文件指定 MSK 集群的 DNS 记录。

每个 DNS 记录都代表特定可用区域中的代理终端节点，允许客户端连接到分布在您选择 AZs 的代理以实现高可用性。

MSK 集群属性中的 DNS 记录数量与集群配置中代理节点和可用区的数量相对应：
+ **默认配置**-3 个 DNS 记录中的 3 个代理节点 AZs = 3 个 DNS 记录
+ **自定义配置** — 2 个 Broker 节点，跨越 AZs 2 个 DNS 记录

[要获取 MSK 集群的 DNS 记录，请在家中打开 MSK 控制台？https://console.aws.amazon.com/msk/ region=us](https://console.aws.amazon.com/msk/home?region=us-east-1#/home/)-east-1\$1/home/。转到 MSK 集群。选择**属性**、**代理**和**端点**。

您可以通过两个选项将 Prometheus 配置为从 MSK 集群中抓取指标：

1. **集群级 DNS 解析（推荐）**：使用集群的基本 DNS 名称来自动发现所有代理。如果代理端点为 `b-1.clusterName.xxx.xxx.xxx`，请将 `clusterName.xxx.xxx.xxx` 用作 DNS 记录。这可让 Prometheus 自动抓取集群中的所有代理。

   **各个代理端点**：单独指定每个代理端点以进行精细控制。在配置中使用完整的代理标识符（b-1、b-2）。例如：

   ```
   dns_sd_configs:
     - names:
       - b-1.clusterName.xxx.xxx.xxx
       - b-2.clusterName.xxx.xxx.xxx  
       - b-3.clusterName.xxx.xxx.xxx
   ```

**注意**  
使用 AWS 控制`clusterName.xxx.xxx.xxx`台中的实际 MSK 集群终端节点替换。

有关更多信息，请参阅 *Prometheus* 文档中的 [<dns\$1sd\$1config>](https://prometheus.io/docs/prometheus/latest/configuration/configuration/#dns_sd_config)。

下面是抓取器配置文件的示例：

```
global:
  scrape_interval: 30s
  external_labels:
    clusterArn: msk-test-1

scrape_configs:
  - job_name: msk-jmx
    scheme: http
    metrics_path: /metrics
    scrape_timeout: 10s
    dns_sd_configs:
      - names:
          - dns-record-1
          - dns-record-2
          - dns-record-3
        type: A
        port: 11001
    relabel_configs:
      - source_labels: [__meta_dns_name]
        target_label: broker_dns
      - source_labels: [__address__]
        target_label: instance
        regex: '(.*)'
        replacement: '${1}'

  - job_name: msk-node
    scheme: http
    metrics_path: /metrics
    scrape_timeout: 10s
    dns_sd_configs:
      - names:
          - dns-record-1
          - dns-record-2
          - dns-record-3
        type: A
        port: 11002
    relabel_configs:
      - source_labels: [__meta_dns_name]
        target_label: broker_dns
      - source_labels: [__address__]
        target_label: instance
        regex: '(.*)'
        replacement: '${1}'
```

运行以下命令之一来将 YAML 文件转换为 base64。也可以使用任何在线 base64 转换器来转换文件。

**Example Linux/macOS**  

```
echo -n scraper config updated with dns records | base64 
```

**Example 窗户 PowerShell**  

```
[Convert]::ToBase64String([System.Text.Encoding]::UTF8.GetBytes(scraper config updated with dns records))
```

------
#### [ To create a scraper using the AWS CLI ]

通过 AWS Command Line Interface使用 `create-scraper` 命令创建抓取器。以下示例在美国东部（弗吉尼亚州北部）区域中创建抓取器。将*example*内容替换为您的 Amazon MSK 集群信息，并提供您的抓取器配置。

**注意**  
配置安全组和子网以匹配您的目标集群。至少包含跨两个可用区的两个子网。

```
aws amp create-scraper \
 --source vpcConfiguration="{securityGroupIds=['sg-security-group-id'],subnetIds=['subnet-subnet-id-1', 'subnet-subnet-id-2']}" \ 
--scrape-configuration configurationBlob=base64-encoded-blob \
 --destination ampConfiguration="{workspaceArn='arn:aws:aps:us-west-2:123456789012:workspace/ws-workspace-id'}"
```

------
+ 以下是您可以与 AWS API 一起使用的抓取器操作的完整列表：

  使用 [CreateScraper](https://docs.aws.amazon.com/prometheus/latest/APIReference/API_CreateScraper.html) API 操作创建抓取程序。
+ 使用 [ListScrapers](https://docs.aws.amazon.com/prometheus/latest/APIReference/API_ListScrapers.html) API 操作列出您现有的抓取程序。
+ 使用 [UpdateScraper](https://docs.aws.amazon.com/prometheus/latest/APIReference/API_UpdateScraper.html)API 操作更新抓取器的别名、配置或目的地。
+ 使用 [DeleteScraper](https://docs.aws.amazon.com/prometheus/latest/APIReference/API_DeleteScraper.html) API 操作删除抓取程序。
+ 通过 [DescribeScraper](https://docs.aws.amazon.com/prometheus/latest/APIReference/API_DescribeScraper.html) API 操作获取有关抓取程序的更多详细信息。

## 跨账户设置
<a name="prom-msk-cross-account"></a>

要在跨账户设置中创建抓取器，而您要从中收集指标的 Amazon MSK 集群与 Amazon Managed Service for Prometheus 收集器位于不同的账户中，请使用以下过程。

例如，当您有两个账户时，第一个账户是 Amazon MSK 所在的源账户 `account_id_source`，另一个是 Amazon Managed Service for Prometheus 工作区所在的目标账户 `account_id_target`。

**在跨账户设置中创建抓取器**

1. 在源账户中，创建角色 `arn:aws:iam::111122223333:role/Source` 并添加以下信任策略。

   ```
   {
       "Effect": "Allow",
       "Principal": {
       "Service": [
           "scraper.aps.amazonaws.com"
        ]
       },
       "Action": "sts:AssumeRole",
       "Condition": {
           "ArnEquals": {
               "aws:SourceArn": "arn:aws:aps:aws-region:111122223333:scraper/scraper-id"
           },
           "StringEquals": {
               "AWS:SourceAccount": "111122223333"
           }
       }
   }
   ```

1. 在源（Amazon MSK 集群）和目标（适用于 Prometheus 的亚马逊托管服务工作空间）的每种组合上，您都需要创建一个`arn:aws:iam::444455556666:role/Target`角色并添加以下具有权限的信任策略。[AmazonPrometheusRemoteWriteAccess](https://docs.aws.amazon.com/prometheus/latest/userguide/security-iam-awsmanpol.html)

   ```
   {
     "Effect": "Allow",
     "Principal": {
        "AWS": "arn:aws:iam::111122223333:role/Source"
     },
     "Action": "sts:AssumeRole",
     "Condition": {
        "StringEquals": {
           "sts:ExternalId": "arn:aws:aps:aws-region:111122223333:scraper/scraper-id"
         }
     }
   }
   ```

1. 使用 `--role-configuration` 选项创建抓取器。

   ```
   aws amp create-scraper \ --source vpcConfiguration="{subnetIds=[subnet-subnet-id], "securityGroupIds": ["sg-security-group-id"]}" \ --scrape-configuration configurationBlob=<base64-encoded-blob> \ --destination ampConfiguration="{workspaceArn='arn:aws:aps:aws-region:444455556666:workspace/ws-workspace-id'}"\ --role-configuration '{"sourceRoleArn":"arn:aws:iam::111122223333:role/Source", "targetRoleArn":"arn:aws:iam::444455556666:role/Target"}'
   ```

1. 验证抓取器创建。

   ```
   aws amp list-scrapers
   {
       "scrapers": [
           {
               "scraperId": "s-example123456789abcdef0",
               "arn": "arn:aws:aps:aws-region:111122223333:scraper/s-example123456789abcdef0": "arn:aws:iam::111122223333:role/Source",
               "status": "ACTIVE",
               "creationTime": "2025-10-27T18:45:00.000Z",
               "lastModificationTime": "2025-10-27T18:50:00.000Z",
               "tags": {},
               "statusReason": "Scraper is running successfully",
               "source": {
                   "vpcConfiguration": {
                       "subnetIds": ["subnet-subnet-id"],
                       "securityGroupIds": ["sg-security-group-id"]
                   }
               },
               "destination": {
                   "ampConfiguration": {
                       "workspaceArn": "arn:aws:aps:aws-region:444455556666:workspace/ws-workspace-id'"
                   }
               },
               "scrapeConfiguration": {
                   "configurationBlob": "<base64-encoded-blob>"
               }
           }
       ]
   }
   ```

## 在 RoleConfiguration 和服务相关角色之间切换
<a name="prom-msk-changing-roles"></a>

当您想要切换回服务相关角色而不是 `RoleConfiguration` 以写入 Amazon Managed Service for Prometheus 工作区时，必须更新 `UpdateScraper` 并提供一个与抓取器位于相同账户中的工作区（不需要 `RoleConfiguration`）。系统将从抓取器中移除 `RoleConfiguration`，并将使用服务相关角色。

当您更改与抓取器位于相同账户中的工作区并且想要继续使用 `RoleConfiguration` 时，必须再次提供在 `UpdateScraper` 上提供 `RoleConfiguration`。

## 查找和删除抓取程序
<a name="prom-msk-delete-scraper"></a>

您可以使用 AWS API 或列 AWS CLI 出您账户中的抓取器或将其删除。

**注意**  
请确保您使用的是 AWS CLI 或 SDK 的最新版本。最新版本为您提供最新的特征和功能，以及安全更新。或者，使用 [AWS CloudShell](https://docs.aws.amazon.com/cloudshell/latest/userguide/welcome.html)，它可以自动提供始终使用 up-to-date命令行体验。

要列出您账户中的所有抓取程序，请使用 [ListScrapers](https://docs.aws.amazon.com/prometheus/latest/APIReference/API_ListScrapers.html) API 操作。

或者，使用 AWS CLI，拨打：

```
aws amp list-scrapers
```

`ListScrapers` 返回您账户中的所有抓取程序，例如：

```
{
    "scrapers": [
        {
            "scraperId": "s-1234abcd-56ef-7890-abcd-1234ef567890",
            "arn": "arn:aws:aps:aws-region:123456789012:scraper/s-1234abcd-56ef-7890-abcd-1234ef567890",
            "roleArn": "arn:aws:iam::123456789012:role/aws-service-role/AWSServiceRoleForAmazonPrometheusScraper_1234abcd-2931",
            "status": {
                "statusCode": "DELETING"
            },
            "createdAt": "2023-10-12T15:22:19.014000-07:00",
            "lastModifiedAt": "2023-10-12T15:55:43.487000-07:00",
            "tags": {},
            "source": {
                "vpcConfiguration": {
                   "securityGroupIds": [
                        "sg-1234abcd5678ef90"
                    ],
                    "subnetIds": [
                        "subnet-abcd1234ef567890", 
                        "subnet-1234abcd5678ab90"
                    ]
                }
            },
            "destination": {
                "ampConfiguration": {
                    "workspaceArn": "arn:aws:aps:aws-region:123456789012:workspace/ws-1234abcd-5678-ef90-ab12-cdef3456a78"
                }
            }
        }
    ]
}
```

要删除抓取程序，请使用 `ListScrapers` 操作查找要删除的抓取程序的 `scraperId`，然后使用 [DeleteScraper](https://docs.aws.amazon.com/prometheus/latest/APIReference/API_DeleteScraper.html) 操作将其删除。

或者，使用 AWS CLI，拨打：

```
aws amp delete-scraper --scraper-id scraperId
```

## 从 Amazon MSK 收集的指标
<a name="prom-msk-metrics"></a>

当与 Amazon MSK 集成时，Amazon Managed Service for Prometheus 收集器会自动抓取以下指标：

### 指标：jmx\$1exporter 和 pod\$1exporter 作业
<a name="broker-metrics"></a>


| 指标 | 描述/用途 | 
| --- | --- | 
|  jmx\$1config\$1reload\$1failure\$1total  |  JMX 导出程序未能重新加载其配置文件的总次数。  | 
|  jmx\$1scrape\$1duration\$1seconds  |  在当前收集周期内抓取 JMX 指标所花费的时间（以秒为单位）。  | 
|  jmx\$1scrape\$1error  |  指示在 JMX 指标抓取期间是否出现错误（1 = 错误，0 = 成功）。  | 
|  java\$1lang\$1memory\$1 \$1used HeapMemoryUsage  |  JVM 当前使用的堆内存量（以字节为单位）。  | 
|  java\$1lang\$1memory\$1 \$1max HeapMemoryUsage  |  可用于内存管理的最大堆内存量（以字节为单位）。  | 
|  java\$1lang\$1memory\$1 \$1used NonHeapMemoryUsage  |  JVM 当前使用的非堆内存量（以字节为单位）。  | 
|  kafka\$1cluster\$1Partition\$1Value  |  与 Kafka 集群分区相关的当前状态或值，按分区 ID 和主题细分。  | 
|  kafka\$1consumer\$1consumer\$1coordinator\$1metrics\$1assigned\$1partitions  |  当前分配给该使用者的分区数。  | 
|  kafka\$1consumer\$1consumer\$1coordinator\$1metrics\$1commit\$1latency\$1avg  |  提交偏移量所花费的平均时间（以毫秒为单位）。  | 
|  kafka\$1consumer\$1consumer\$1coordinator\$1metrics\$1commit\$1rate  |  每秒的偏移量提交次数。  | 
|  kafka\$1consumer\$1consumer\$1coordinator\$1metrics\$1failed\$1rebalance\$1total  |  失败的使用者组重新平衡总数。  | 
|  kafka\$1consumer\$1consumer\$1coordinator\$1metrics\$1last\$1heartbeat\$1seconds\$1ago  |  自上次向协调器发送检测信号以来的秒数。  | 
|  kafka\$1consumer\$1consumer\$1coordinator\$1metrics\$1rebalance\$1latency\$1avg  |  使用者组重新平衡所花费的平均时间（以毫秒为单位）。  | 
|  kafka\$1consumer\$1consumer\$1coordinator\$1metrics\$1rebalance\$1total  |  使用者组重新平衡总数。  | 
|  kafka\$1consumer\$1consumer\$1fetch\$1manager\$1metrics\$1bytes\$1consumed\$1rate  |  使用者每秒使用的平均字节数。  | 
|  kafka\$1consumer\$1consumer\$1fetch\$1manager\$1metrics\$1fetch\$1latency\$1avg  |  提取请求所花费的平均时间（以毫秒为单位）。  | 
|  kafka\$1consumer\$1consumer\$1fetch\$1manager\$1metrics\$1fetch\$1rate  |  每秒的提取请求数。  | 
|  kafka\$1consumer\$1consumer\$1fetch\$1manager\$1metrics\$1records\$1consumed\$1rate  |  每秒使用的平均记录数。  | 
|  kafka\$1consumer\$1consumer\$1fetch\$1manager\$1metrics\$1records\$1lag\$1max  |  最大滞后，以该使用者中的任何分区的记录数表示。  | 
|  kafka\$1consumer\$1consumer\$1metrics\$1connection\$1count  |  当前活动的连接数。  | 
|  kafka\$1consumer\$1consumer\$1metrics\$1incoming\$1byte\$1rate  |  每秒从所有服务器接收的平均字节数。  | 
|  kafka\$1consumer\$1consumer\$1metrics\$1last\$1poll\$1seconds\$1ago  |  自上次使用者 poll() 调用以来的秒数。  | 
|  kafka\$1consumer\$1consumer\$1metrics\$1request\$1rate  |  每秒发送的请求数。  | 
|  kafka\$1consumer\$1consumer\$1metrics\$1response\$1rate  |  每秒接收的响应数。  | 
|  kafka\$1con ConsumerLagMetrics sumer\$1group\$1 \$1Val  |  使用者组的当前使用者滞后值，表示使用者落后的程度。  | 
|  kafka\$1con KafkaController troller\$1 \$1Val  |  Kafka 控制器的当前状态或值（1 = 活动控制器，0 = 不活动）。  | 
|  kafka\$1con ControllerEventManager troller\$1 \$1Cou  |  已处理的控制器事件总数。  | 
|  kafka\$1con ControllerEventManager troller\$1 \$1Me  |  处理控制器事件所花费的平均时间。  | 
|  kafka\$1con ControllerStats troller\$1 \$1 MeanRate  |  每秒控制器统计操作的平均速率。  | 
|  kafka\$1协调器\$1group\$1 \$1Valu GroupMetadataManager e  |  使用者组的组元数据管理器的当前状态或值。  | 
|  kafka\$1l LogFlushStats og\$1 \$1Count  |  日志刷新操作总数。  | 
|  kafka\$1l LogFlushStats og\$1 \$1Mean  |  日志刷新操作所花费的平均时间。  | 
|  kafka\$1l LogFlushStats og\$1 \$1 MeanRate  |  每秒日志刷新操作的平均速率。  | 
|  kafka\$1network\$1 \$1 RequestMetrics Cou  |  已处理的网络请求总数。  | 
|  kafka\$1network\$1 \$1 RequestMetrics Me  |  处理网络请求所花费的平均时间。  | 
|  kafka\$1network\$1 \$1 RequestMetrics MeanRate  |  每秒网络请求的平均速率。  | 
|  kafka\$1network\$1accept MeanRate  |  每秒接受的连接的平均速率。  | 
|  kafka\$1server\$1Fetch\$1queue\$1size  |  提取请求队列的当前大小。  | 
|  kafka\$1server\$1Produce\$1queue\$1size  |  生产请求队列的当前大小。  | 
|  kafka\$1server\$1Request\$1queue\$1size  |  常规请求队列的当前大小。  | 
|  kafka\$1 BrokerTopicMetrics server\$1 \$1count  |  代理主题操作（消息in/out, bytes in/out）的总数。  | 
|  kafka\$1 BrokerTopicMetrics server\$1 \$1 MeanRate  |  每秒代理主题操作的平均速率。  | 
|  kafka\$1 BrokerTopicMetrics server\$1 \$1 OneMinuteRate  |  代理主题操作的一分钟移动平均速率。  | 
|  kafka\$1 DelayedOperationPurgatory server\$1 \$1Valu  |  处于等待状态（等待完成）的延迟操作的当前数量。  | 
|  kafka\$1 DelayedFetchMetrics server\$1 \$1 MeanRate  |  每秒延迟提取操作的平均速率。  | 
|  kafka\$1 FetcherLagMetrics server\$1 \$1Valu  |  副本提取器线程的当前滞后值（落后于领导者线程的程度）。  | 
|  kafka\$1 FetcherStats server\$1 \$1 MeanRate  |  每秒提取器操作的平均速率。  | 
|  kafka\$1 ReplicaManager server\$1 \$1Valu  |  副本管理器的当前状态或值。  | 
|  kafka\$1 ReplicaManager server\$1 \$1 MeanRate  |  每秒副本管理器操作的平均速率。  | 
|  kafka\$1 LeaderReplication server\$1 \$1byte\$1rate  |  对于此代理作为领导者的分区，每秒复制的字节速率。  | 
|  kafka\$1server\$1group\$1coordinator\$1metrics\$1group\$1completed\$1rebalance\$1count  |  完成的使用者组重新平衡的总数。  | 
|  kafka\$1server\$1group\$1coordinator\$1metrics\$1offset\$1commit\$1count  |  偏移量提交操作的总数。  | 
|  kafka\$1server\$1group\$1coordinator\$1metrics\$1offset\$1commit\$1rate  |  每秒偏移量提交操作的速率。  | 
|  kafka\$1server\$1socket\$1server\$1metrics\$1connection\$1count  |  当前活动的连接数。  | 
|  kafka\$1server\$1socket\$1server\$1metrics\$1connection\$1creation\$1rate  |  每秒新建连接的速率。  | 
|  kafka\$1server\$1socket\$1server\$1metrics\$1connection\$1close\$1rate  |  每秒连接关闭的速率。  | 
|  kafka\$1server\$1socket\$1server\$1metrics\$1failed\$1authentication\$1total  |  失败的身份验证尝试总数。  | 
|  kafka\$1server\$1socket\$1server\$1metrics\$1incoming\$1byte\$1rate  |  每秒传入字节数。  | 
|  kafka\$1server\$1socket\$1server\$1metrics\$1outgoing\$1byte\$1rate  |  每秒传出字节数。  | 
|  kafka\$1server\$1socket\$1server\$1metrics\$1request\$1rate  |  每秒请求速率。  | 
|  kafka\$1server\$1socket\$1server\$1metrics\$1response\$1rate  |  每秒响应速率。  | 
|  kafka\$1server\$1socket\$1server\$1metrics\$1network\$1io\$1rate  |  每秒网络 I/O 操作的速率。  | 
|  kafka\$1server\$1socket\$1server\$1metrics\$1io\$1ratio  |  花在 I/O 操作上的时间的一小部分。  | 
|  kafka\$1server\$1controller\$1channel\$1metrics\$1connection\$1count  |  控制器通道的当前活动连接数。  | 
|  kafka\$1server\$1controller\$1channel\$1metrics\$1incoming\$1byte\$1rate  |  控制器通道每秒传入字节的速率。  | 
|  kafka\$1server\$1controller\$1channel\$1metrics\$1outgoing\$1byte\$1rate  |  控制器通道每秒传出字节的速率。  | 
|  kafka\$1server\$1controller\$1channel\$1metrics\$1request\$1rate  |  控制器通道每秒的请求速率。  | 
|  kafka\$1server\$1replica\$1fetcher\$1metrics\$1connection\$1count  |  副本提取器的当前活动连接数。  | 
|  kafka\$1server\$1replica\$1fetcher\$1metrics\$1incoming\$1byte\$1rate  |  副本提取器的每秒传入字节的速率。  | 
|  kafka\$1server\$1replica\$1fetcher\$1metrics\$1request\$1rate  |  副本提取器的每秒请求速率。  | 
|  kafka\$1server\$1replica\$1fetcher\$1metrics\$1failed\$1authentication\$1total  |  副本提取器的失败的身份验证尝试总数。  | 
|  kafka\$1 ZooKeeperClientMetrics server\$1 \$1count  |   ZooKeeper 客户机操作总数。  | 
|  kafka\$1 ZooKeeperClientMetrics server\$1 \$1Mean  |   ZooKeeper 客户端操作的平均延迟。  | 
|  kafka\$1 KafkaServer server\$1 \$1Valu  |  Kafka 服务器的当前状态或值（通常表示服务器正在运行）。  | 
|  node\$1cpu\$1seconds\$1total  |  按照 CPU 和模式细分的每种模式（用户、系统、空闲等）所 CPUs 花费的总秒数。  | 
|  node\$1disk\$1read\$1bytes\$1total  |  成功从磁盘读取的总字节数，按设备细分。  | 
|  node\$1disk\$1reads\$1completed\$1total  |  成功完成的磁盘读取总数，按设备细分。  | 
|  node\$1disk\$1writes\$1completed\$1total  |  成功完成的磁盘写入总数，按设备细分。  | 
|  node\$1disk\$1written\$1bytes\$1total  |  成功写入磁盘的总字节数，按设备细分。  | 
|  node\$1filesystem\$1avail\$1bytes  |  非根用户的可用文件系统空间（以字节为单位），按设备和挂载点细分。  | 
|  node\$1filesystem\$1size\$1bytes  |  文件系统的总大小（以字节为单位），按设备和挂载点细分。  | 
|  node\$1filesystem\$1free\$1bytes  |  可用文件系统空间（以字节为单位），按设备和装载点细分。  | 
|  node\$1filesystem\$1files  |  文件系统上的文件节点（inode）总数，按设备和挂载点细分。  | 
|  node\$1filesystem\$1files\$1free  |  文件系统上空闲文件节点（inode）的数量，按设备和挂载点细分。  | 
|  node\$1filesystem\$1readonly  |  表示文件系统是否以只读方式挂载（1 = 只读，0 = 读写）。  | 
|  node\$1filesystem\$1device\$1error  |  表示在获取文件系统统计信息时是否出现错误（1 = 错误，0 = 成功）。  | 

## 限制
<a name="prom-msk-limitations"></a>

当前 Amazon MSK 与 Amazon Managed Service for Prometheus 的集成存在以下限制：
+ 仅对于 Amazon MSK 预置集群才支持（不适用于 Amazon MSK Serverless）
+ 不支持同时启用公共访问和 KRaft 元数据模式的 Amazon MSK 集群
+ 对于 Amazon MSK Express 代理不支持
+ 目前支持 Amazon MSK 集群与 Amazon Managed Service for Prometheus 收集器/工作区之间的 1:1 映射