

本文属于机器翻译版本。若本译文内容与英语原文存在差异，则一律以英文原文为准。

# 使用指标监控亚马逊数据 Firehose CloudWatch
<a name="monitoring-with-cloudwatch-metrics"></a>

**重要**  
请务必对属于您的目的地的所有 CloudWatch 指标启用警报，以便及时发现错误。

Amazon Data Firehose 与亚马逊 CloudWatch 指标集成，因此您可以收集、查看和分析 Firehose 直播的 CloudWatch 指标。例如，您可以监控 `IncomingBytes` 和 `IncomingRecords` 指标，以跟踪从数据生产者摄取到 Amazon Data Firehose 的数据。

Amazon Data Firehose 每分钟收集和发布一次 CloudWatch 指标。但是，如果传入数据突发仅持续几秒钟，则可能无法在一分钟指标中完全捕获或可见。这是因为 CloudWatch 指标是在一分钟内从 Amazon Data Firehose 汇总的。

为 Firehose 流收集的指标不收费。有关 Kinesis 代理指标的更多信息，请参阅 [监控 Kinesis 代理运行状况](agent-health.md)。

**Topics**
+ [CloudWatch 动态分区的指标](#dp-metrics-cw)
+ [CloudWatch 数据传输指标](#fh-metrics-cw)
+ [数据摄取指标](#fh-ingestion-metrics)
+ [API 级别 CloudWatch 的指标](#fh-metrics-api-cw)
+ [数据转换 CloudWatch 指标](#fh-metrics-data-transformation)
+ [CloudWatch 日志解压缩指标](#decompression-metrics-cw)
+ [格式化转化 CloudWatch 指标](#fh-metrics-format-conversion)
+ [服务器端加密 (SSE) 指标 CloudWatch](#fh-metrics-sse)
+ [Amazon Data Firehose 的维度](#firehose-metric-dimensions)
+ [Amazon Data Firehose 用量指标](#fh-metrics-usage)

## CloudWatch 动态分区的指标
<a name="dp-metrics-cw"></a>

如果启用了[动态分区](dynamic-partitioning.md)，则 AWS/Firehose 命名空间将包含以下指标。


| 指标 | 说明 | 
| --- | --- | 
| ActivePartitionsLimit |  Firehose 流在将数据发送到错误存储桶之前处理的最大活动分区数。 统计数据：Minimum、Maximum、Average、Sum、Samples 单位：计数  | 
| PartitionCount |  正在处理的分区数，也即活动分区数。此数字在 1 和分区计数限制 500（默认）之间变化。 统计数据：Minimum、Maximum、Average、Sum、Samples 单位：计数  | 
| PartitionCountExceeded |  此指标指示您是否超出了分区计数限制。根据是否违反限制发出 1 或 0。  | 
| JQProcessing.Duration |  返回在 JQ Lambda 函数中执行 JQ 表达式所花的时间。 单位：毫秒  | 
| PerPartitionThroughput |  表示每个分区正在处理的吞吐量。此指标使您能够监控每个分区的吞吐量。 单位： StandardUnit。 BytesSecond  | 
| DeliveryToS3.ObjectCount |  指示正在传输到 S3 存储桶的对象数。 统计数据：Minimum、Maximum、Average、Sum、Samples 单位：计数  | 

## CloudWatch 数据传输指标
<a name="fh-metrics-cw"></a>

`AWS/Firehose` 命名空间包括以下服务级指标。如果您看到 `BackupToS3.Success`、`DeliveryToS3.Success`、`DeliveryToSplunk.Success`、`DeliveryToAmazonOpenSearchService.Success` 或 `DeliveryToRedshift.Success` 的平均值小幅下降，这并不表示存在数据丢失。Amazon Data Firehose 会重试传输错误，并且在记录成功传输到配置的目的地或备份 S3 存储桶之前不会继续前进。

**Topics**
+ [送货到 OpenSearch 服务](#fh-es-metrics)
+ [交付到 OpenSearch 无服务器](#fh-serverless-metrics)
+ [传输到 Amazon Redshift](#fh-redshift-metrics)
+ [传输到 Amazon S3](#fh-s3-metrics)
+ [传输到 Snowflake](#fh-snowflake-metrics)
+ [传输到 Splunk](#fh-splunk-metrics)
+ [传输到 HTTP 端点](#fh-http-metrics)

### 送货到 OpenSearch 服务
<a name="fh-es-metrics"></a>


| 指标 | 说明 | 
| --- | --- | 
| DeliveryToAmazonOpenSearchService.Bytes |  在指定时间段内索引到 S OpenSearch ervice 的字节数。 统计数据：Minimum、Maximum、Average、Sum、Samples 单位：字节  | 
| DeliveryToAmazonOpenSearchService.DataFreshness |  Amazon Data Firehose 中最早记录的期限（从进入 Amazon Data Firehose 到现在）。任何超过此年龄的记录都已交付给 OpenSearch 服务部门。 统计数据：Minimum、Maximum、Average、Sum、Samples 单位：秒  | 
| DeliveryToAmazonOpenSearchService.Records |  在指定时间段内编入 OpenSearch 服务索引的记录数。 统计数据：Minimum、Maximum、Average、Sum、Samples 单位：计数  | 
| DeliveryToAmazonOpenSearchService.Success |  已成功编制索引的记录的总和。  | 
| DeliveryToS3.Bytes |  在指定时间段内传输到 Amazon S3 的字节数。仅当您为所有文档启用备份后，Amazon Data Firehose 才会发出此指标。 统计数据：Minimum、Maximum、Average、Sum、Samples 单位：计数  | 
| DeliveryToS3.DataFreshness |  Amazon Data Firehose 中最早记录的期限（从进入 Amazon Data Firehose 到现在）。任何大于此年龄的记录已传送到 S3 存储桶。仅当您为所有文档启用备份后，Amazon Data Firehose 才会发出此指标。 单位：秒  | 
| DeliveryToS3.Records |  在指定时间段内传输到 Amazon S3 的记录数。仅当您为所有文档启用备份后，Amazon Data Firehose 才会发出此指标。 统计数据：Minimum、Maximum、Average、Sum、Samples 单位：计数  | 
| DeliveryToS3.Success |  成功 Amazon S3 put 命令的总和。无论是仅对失败的文档还是对所有文档启用备份，Amazon Data Firehose 始终会发出此指标。  | 
| DeliveryToAmazonOpenSearchService.AuthFailure |  Authentication/authorization error. Verify the OS/ES集群策略和角色权限。 0 表示没有问题。1 表示身份验证失败。  | 
| DeliveryToAmazonOpenSearchService.DeliveryRejected |  传输被拒绝错误。验证集 OS/ES 群策略和角色权限。 0 表示没有问题。1 表示传输失败。  | 

### 交付到 OpenSearch 无服务器
<a name="fh-serverless-metrics"></a>


| 指标 | 说明 | 
| --- | --- | 
| DeliveryToAmazonOpenSearchServerless.Bytes |  在指定时间段内索引到 OpenSearch Serverless 的字节数。 统计数据：Minimum、Maximum、Average、Sum、Samples 单位：字节  | 
| DeliveryToAmazonOpenSearchServerless.DataFreshness |  Amazon Data Firehose 中最早记录的期限（从进入 Amazon Data Firehose 到现在）。任何超过这个年龄的记录都已发送到 OpenSearch Serverless。 单位：秒  | 
| DeliveryToAmazonOpenSearchServerless.Records |  在指定时间段内索引到 OpenSearch Serverless 的记录数。 统计数据：Minimum、Maximum、Average、Sum、Samples 单位：计数  | 
| DeliveryToAmazonOpenSearchServerless.Success |  已成功编制索引的记录的总和。  | 
| DeliveryToS3.Bytes |  在指定时间段内传输到 Amazon S3 的字节数。仅当您为所有文档启用备份后，Amazon Data Firehose 才会发出此指标。 统计数据：Minimum、Maximum、Average、Sum、Samples 单位：计数  | 
| DeliveryToS3.DataFreshness |  Amazon Data Firehose 中最早记录的期限（从进入 Amazon Data Firehose 到现在）。任何大于此年龄的记录已传送到 S3 存储桶。仅当您为所有文档启用备份后，Amazon Data Firehose 才会发出此指标。 单位：秒  | 
| DeliveryToS3.Records |  在指定时间段内传输到 Amazon S3 的记录数。仅当您为所有文档启用备份后，Amazon Data Firehose 才会发出此指标。 单位：计数  | 
| DeliveryToS3.Success |  成功 Amazon S3 put 命令的总和。无论是仅对失败的文档还是对所有文档启用备份，Amazon Data Firehose 始终会发出此指标。  | 
| DeliveryToAmazonOpenSearchServerless.AuthFailure |  Authentication/authorization error. Verify the OS/ES集群策略和角色权限。 0 表示没有问题。1 表示身份验证失败。  | 
| DeliveryToAmazonOpenSearchServerless.DeliveryRejected |  传输被拒绝错误。验证集 OS/ES 群策略和角色权限。 0 表示没有问题。1 表示传输失败。  | 

### 传输到 Amazon Redshift
<a name="fh-redshift-metrics"></a>


| 指标 | 说明 | 
| --- | --- | 
| DeliveryToRedshift.Bytes |  在指定时间段内复制到 Amazon Redshift 的字节数。 统计数据：Minimum、Maximum、Average、Sum、Samples 单位：计数  | 
| DeliveryToRedshift.Records |  在指定时间段内复制到 Amazon Redshift 的记录数。 统计数据：Minimum、Maximum、Average、Sum、Samples 单位：计数  | 
| DeliveryToRedshift.Success |  成功 Amazon Redshift COPY 命令的总和。  | 
| DeliveryToS3.Bytes |  在指定时间段内传输到 Amazon S3 的字节数。 统计数据：Minimum、Maximum、Average、Sum、Samples 单位：字节  | 
| DeliveryToS3.DataFreshness |  Amazon Data Firehose 中最早记录的期限（从进入 Amazon Data Firehose 到现在）。任何大于此期限的记录都传送到 S3 存储桶。 单位：秒  | 
| DeliveryToS3.Records |  在指定时间段内传输到 Amazon S3 的记录数。 统计数据：Minimum、Maximum、Average、Sum、Samples 单位：计数  | 
| DeliveryToS3.Success |  成功 Amazon S3 put 命令的总和。  | 
| DeliveryToRedshift.DataFreshness |  Amazon Data Firehose 中最早记录的期限（从进入 Amazon Data Firehose 到现在）。任何大于此期限的记录都传送到 Amazon Redshift 集群。  | 
| BackupToS3.Bytes |  在指定时间段内传输到 Amazon S3 进行备份的字节数。启用备份到 Amazon S3 后，Amazon Data Firehose 会发出此指标。 统计数据：Minimum、Maximum、Average、Sum、Samples 单位：计数  | 
| BackupToS3.DataFreshness |  Amazon Data Firehose 中最早记录的期限（从进入 Amazon Data Firehose 到现在）。任何早于此期限的记录均已传输到 Amazon S3 存储桶进行备份。启用备份到 Amazon S3 后，Amazon Data Firehose 会发出此指标。 统计数据：Minimum、Maximum、Average、Samples 单位：秒  | 
| BackupToS3.Records |  在指定时间段内传输到 Amazon S3 进行备份的记录数。启用备份到 Amazon S3 后，Amazon Data Firehose 会发出此指标。 统计数据：Minimum、Maximum、Average、Sum、Samples 单位：计数  | 
| BackupToS3.Success |  成功的 Amazon S3 备份 put 命令的总和。启用备份到 Amazon S3 后，Amazon Data Firehose 会发出此指标。  | 

### 传输到 Amazon S3
<a name="fh-s3-metrics"></a>

下表中的指标与 Amazon S3 是 Firehose 流的主要目的地时的传输相关。


| 指标 | 说明 | 
| --- | --- | 
| DeliveryToS3.Bytes |  在指定时间段内传输到 Amazon S3 的字节数。启用数据转换后，该指标会反映转换前预处理的字节大小。 统计数据：Minimum、Maximum、Average、Sum、Samples 单位：字节  | 
| DeliveryToS3.DataFreshness |  Amazon Data Firehose 中最早记录的期限（从进入 Amazon Data Firehose 到现在）。任何大于此年龄的记录已传送到 S3 存储桶。 统计数据：Minimum、Maximum、Average、Samples 单位：秒  | 
| DeliveryToS3.Records |  在指定时间段内传输到 Amazon S3 的记录数。 统计数据：Minimum、Maximum、Average、Sum、Samples 单位：计数  | 
| DeliveryToS3.Success |  成功 Amazon S3 put 命令的总和。  | 
| BackupToS3.Bytes |  在指定时间段内传输到 Amazon S3 进行备份的字节数。启用备份后，Amazon Data Firehose 会发出此指标（只有在同时启用数据转换的情况下才可以）。 统计数据：Minimum、Maximum、Average、Sum、Samples 单位：计数  | 
| BackupToS3.DataFreshness |  Amazon Data Firehose 中最早记录的期限（从进入 Amazon Data Firehose 到现在）。任何早于此期限的记录均已传输到 Amazon S3 存储桶进行备份。启用备份后，Amazon Data Firehose 会发出此指标（只有在同时启用数据转换的情况下才可以）。 统计数据：Minimum、Maximum、Average、Samples 单位：秒  | 
| BackupToS3.Records |  在指定时间段内传输到 Amazon S3 进行备份的记录数。启用备份后，Amazon Data Firehose 会发出此指标（只有在同时启用数据转换的情况下才可以）。 统计数据：Minimum、Maximum、Average、Sum、Samples 单位：计数  | 
| BackupToS3.Success |  成功的 Amazon S3 备份 put 命令的总和。启用备份后，Amazon Data Firehose 会发出此指标（只有在同时启用数据转换的情况下才可以）。  | 

### 传输到 Snowflake
<a name="fh-snowflake-metrics"></a>


| 指标 | 说明 | 
| --- | --- | 
| DeliveryToSnowflake.Bytes |  在指定时段内传输到 Snowflake 的字节数。 统计数据：Minimum、Maximum、Average、Sum、Samples 单位：字节  | 
| DeliveryToSnowflake.DataFreshness |  Firehose 中最早记录的期限（从进入 Firehose 到现在）。任何大于此时间的记录已传输到 Snowflake。请注意，在 Firehose 插入调用成功后，可能需要几秒钟才能将数据提交给 Snowflake。有关向 Snowflake 提交数据所需的时间，请参阅 `DeliveryToSnowflake.DataCommitLatency` 指标。 统计数据：Minimum、Maximum、Average、Samples 单位：秒  | 
| DeliveryToSnowflake.DataCommitLatency | Firehose 成功插入记录后，将数据提交到 Snowflake 所需的时间。统计数据：Minimum、Maximum、Average、Samples 单位：秒 | 
| DeliveryToSnowflake.Records |  在指定时间段内传输到 Snowflake 的记录数。 统计数据：Minimum、Maximum、Average、Sum、Samples 单位：计数  | 
| DeliveryToSnowflake.Success | 对 Snowflake 进行的成功插入调用的总和。 | 
| DeliveryToS3.Bytes | 在指定时间段内传输到 Amazon S3 的字节数。仅当向 Snowflake 传输失败且 Firehose 尝试将失败的数据备份到 S3 时，此指标才可用。统计数据：Minimum、Maximum、Average、Sum、Samples 单位：字节 | 
| DeliveryToS3.Records | 在指定时间段内传输到 Amazon S3 的记录数。仅当向 Snowflake 传输失败且 Firehose 尝试将失败的数据备份到 S3 时，此指标才可用。统计数据：Minimum、Maximum、Average、Sum、Samples 单位：计数 | 
| DeliveryToS3.Success | 成功 Amazon S3 put 命令的总和。仅当向 Snowflake 传输失败且 Firehose 尝试将失败的数据备份到 S3 时，此指标才可用。 | 
| BackupToS3.DataFreshness | Firehose 中最早记录的期限（从进入 Firehose 到现在）。任何早于此期限的记录均已备份到 Amazon S3 存储桶。当 Firehose 流配置为备份所有数据时，此指标可用。统计数据：Minimum、Maximum、Average、Samples 单位：秒 | 
| BackupToS3.Records | 在指定时间段内传输到 Amazon S3 进行备份的记录数。当 Firehose 流配置为备份所有数据时，此指标可用。统计数据：Minimum、Maximum、Average、Sum、Samples 单位：计数 | 
| BackupToS3.Bytes | 在指定时间段内传输到 Amazon S3 进行备份的字节数。当 Firehose 流配置为备份所有数据时，此指标可用。统计数据：Minimum、Maximum、Average、Sum、Samples 单位：计数 | 
| BackupToS3.Success | 成功的 Amazon S3 备份 put 命令的总和。当 Firehose 流配置为备份所有数据时，Firehose 会发出此指标。 | 

### 传输到 Splunk
<a name="fh-splunk-metrics"></a>


| 指标 | 说明 | 
| --- | --- | 
| DeliveryToSplunk.Bytes |  在指定时段内传送到 Splunk 的字节数。 统计数据：Minimum、Maximum、Average、Sum、Samples 单位：字节  | 
| DeliveryToSplunk.DataAckLatency |  Amazon Data Firehose 向 Splunk 发送数据后，从 Splunk 接收确认所需的大致时间。此指标的增加或减少趋势比绝对近似值更有用。增长趋势可能表明 Splunk 索引器的索引和确认速度较慢。 统计数据：Minimum、Maximum、Average、Samples 单位：秒  | 
| DeliveryToSplunk.DataFreshness |  Amazon Data Firehose 中最早记录的期限（从进入 Amazon Data Firehose 到现在）。任何大于此年龄的记录已传送到 Splunk。 统计数据：Minimum、Maximum、Average、Samples 单位：秒  | 
| DeliveryToSplunk.Records |  在指定时段内传送到 Splunk 的记录数。 统计数据：Minimum、Maximum、Average、Sum、Samples 单位：计数  | 
| DeliveryToSplunk.Success |  已成功编制索引的记录的总和。  | 
| DeliveryToS3.Success |  成功 Amazon S3 put 命令的总和。启用备份到 Amazon S3 时，将发出此指标。  | 
| BackupToS3.Bytes |  在指定时间段内传输到 Amazon S3 进行备份的字节数。当 Firehose 流配置为备份所有文档时，Amazon Data Firehose 会发出此指标。 统计数据：Minimum、Maximum、Average、Sum、Samples 单位：计数  | 
| BackupToS3.DataFreshness |  Amazon Data Firehose 中最早记录的期限（从进入 Amazon Data Firehose 到现在）。任何早于此期限的记录均已传输到 Amazon S3 存储桶进行备份。当 Firehose 流配置为备份所有文档时，Amazon Data Firehose 会发出此指标。 统计数据：Minimum、Maximum、Average、Samples 单位：秒  | 
| BackupToS3.Records |  在指定时间段内传输到 Amazon S3 进行备份的记录数。当 Firehose 流配置为备份所有文档时，Amazon Data Firehose 会发出此指标。 统计数据：Minimum、Maximum、Average、Sum、Samples 单位：计数  | 
| BackupToS3.Success |  成功的 Amazon S3 备份 put 命令的总和。当 Firehose 流配置为备份所有文档时，Amazon Data Firehose 会发出此指标。  | 

### 传输到 HTTP 端点
<a name="fh-http-metrics"></a>


| 指标 | 说明 | 
| --- | --- | 
| DeliveryToHttpEndpoint.Bytes |  成功传输到 HTTP 端点的字节数。 统计数据：Minimum、Maximum、Average、Sum、Samples 单位：字节  | 
| DeliveryToHttpEndpoint.Records |  成功传输到 HTTP 端点的记录数。此指标仅在成功尝试交付时发出，并且在交付尝试失败时不会发出。 统计数据：Minimum、Maximum、Average、Sum、Samples 单位：计数  | 
| DeliveryToHttpEndpoint.DataFreshness |  Amazon Data Firehose 中最早记录的期限。 统计数据：Minimum、Maximum、Average、Samples 单位：秒  | 
| DeliveryToHttpEndpoint.Success |  每次尝试传送成功传送到 HTTP 端点的记录数。与之不同的是`DeliveryToHttpEndpoint.Records`，每次尝试交付都会发出此指标。成功后，该值等于传送尝试中的记录数。如果传送尝试中的所有记录都失败，则值为 0。使用最小值统计数据来监控传送失败。 统计数据：Minimum、Maximum、Average、Sum、Samples 单位：计数  | 
| DeliveryToHttpEndpoint.ProcessedBytes |  尝试处理的字节数，包括重试次数。  | 
| DeliveryToHttpEndpoint.ProcessedRecords |  尝试的记录数，包括重试次数。  | 

## 数据摄取指标
<a name="fh-ingestion-metrics"></a>

**Topics**
+ [通过 Kinesis Data Streams 进行的数据摄取](#fh-ingestion-kds-metrics)
+ [通过 Direct PUT 进行的数据摄取](#fh-ingestion-directput-metrics)
+ [从 MSK 进行的数据摄取](#fh-ingestion-msk-metrics)

### 通过 Kinesis Data Streams 进行的数据摄取
<a name="fh-ingestion-kds-metrics"></a>


| 指标 | 说明 | 
| --- | --- | 
| DataReadFromKinesisStream.Bytes |  当数据来源是 Kinesis 数据流时，此指标指示从该数据流读取的字节数。此数字包括由于故障转移而重新读取的数量。 统计数据：Minimum、Maximum、Average、Sum、Samples 单位：字节  | 
| DataReadFromKinesisStream.Records |  当数据来源是 Kinesis 数据流时，此指标指示从该 Kinesis 数据流读取的记录数。此数字包括由于故障转移而重新读取的数量。 统计数据：Minimum、Maximum、Average、Sum、Samples 单位：计数  | 
| ThrottledDescribeStream |  当数据来源是 Kinesis 数据流时，`DescribeStream` 操作受到限制的总次数。 统计数据：Minimum、Maximum、Average、Sum、Samples 单位：计数  | 
| ThrottledGetRecords |  当数据来源是 Kinesis 数据流时，`GetRecords` 操作受到限制的总次数。 统计数据：Minimum、Maximum、Average、Sum、Samples 单位：计数  | 
| ThrottledGetShardIterator |  当数据来源是 Kinesis 数据流时，`GetShardIterator` 操作受到限制的总次数。 统计数据：Minimum、Maximum、Average、Sum、Samples 单位：计数  | 
| KinesisMillisBehindLatest |  当数据来源是 Kinesis 数据流时，此度量标准指示最后一条读取记录落后于 Kinesis 数据流中的最新记录的毫秒数。 统计数据：Minimum、Maximum、Average、Samples 单位：毫秒  | 

### 通过 Direct PUT 进行的数据摄取
<a name="fh-ingestion-directput-metrics"></a>


| 指标 | 说明 | 
| --- | --- | 
| BackupToS3.Bytes |  在指定时间段内传输到 Amazon S3 进行备份的字节数。当为 Amazon S3 或 Amazon Redshift 目的地启用数据转换时，Amazon Data Firehose 会发出此指标。 统计数据：Minimum、Maximum、Average、Sum、Samples 单位：字节  | 
| BackupToS3.DataFreshness |  Amazon Data Firehose 中最早记录的期限（从进入 Amazon Data Firehose 到现在）。任何早于此期限的记录均已传输到 Amazon S3 存储桶进行备份。当为 Amazon S3 或 Amazon Redshift 目的地启用数据转换时，Amazon Data Firehose 会发出此指标。 统计数据：Minimum、Maximum、Average、Samples 单位：秒  | 
| BackupToS3.Records |  在指定时间段内传输到 Amazon S3 进行备份的记录数。当为 Amazon S3 或 Amazon Redshift 目的地启用数据转换时，Amazon Data Firehose 会发出此指标。 统计数据：Minimum、Maximum、Average、Sum、Samples 单位：计数  | 
| BackupToS3.Success |  成功的 Amazon S3 备份 put 命令的总和。当为 Amazon S3 或 Amazon Redshift 目的地启用数据转换时，Amazon Data Firehose 会发出此指标。  | 
| BytesPerSecondLimit | 在限制之前 Firehose 流当前每秒可以摄取的最大字节数。要请求提高此限制，请转至 [AWS Support 中心](https://console.aws.amazon.com/support/home)并选择创建案例，然后选择提高服务限制。 | 
| DeliveryToAmazonOpenSearchService.Bytes |  在指定时间段内索引到 S OpenSearch ervice 的字节数。 统计数据：Minimum、Maximum、Average、Sum、Samples 单位：字节  | 
| DeliveryToAmazonOpenSearchService.DataFreshness |  Amazon Data Firehose 中最早记录的期限（从进入 Amazon Data Firehose 到现在）。任何超过此年龄的记录都已交付给 OpenSearch 服务部门。 统计数据：Minimum、Maximum、Average、Samples 单位：秒  | 
| DeliveryToAmazonOpenSearchService.Records |  在指定时间段内编入 OpenSearch 服务索引的记录数。 统计数据：Minimum、Maximum、Average、Sum、Samples 单位：计数  | 
| DeliveryToAmazonOpenSearchService.Success |  已成功编制索引的记录的总和。  | 
| DeliveryToRedshift.Bytes |  在指定时间段内复制到 Amazon Redshift 的字节数。 统计数据：Minimum、Maximum、Average、Sum、Samples 单位：字节  | 
| DeliveryToRedshift.Records |  在指定时间段内复制到 Amazon Redshift 的记录数。 统计数据：Minimum、Maximum、Average、Sum、Samples 单位：计数  | 
| DeliveryToRedshift.Success |  成功 Amazon Redshift COPY 命令的总和。  | 
| DeliveryToS3.Bytes |  在指定时间段内传输到 Amazon S3 的字节数。 统计数据：Minimum、Maximum、Average、Sum、Samples 单位：字节  | 
| DeliveryToS3.DataFreshness |  Amazon Data Firehose 中最早记录的期限（从进入 Amazon Data Firehose 到现在）。任何大于此年龄的记录已传送到 S3 存储桶。 统计数据：Minimum、Maximum、Average、Samples 单位：秒  | 
| DeliveryToS3.Records |  在指定时间段内传输到 Amazon S3 的记录数。 统计数据：Minimum、Maximum、Average、Sum、Samples 单位：计数  | 
| DeliveryToS3.Success |  成功 Amazon S3 put 命令的总和。  | 
| DeliveryToSplunk.Bytes |  在指定时段内传送到 Splunk 的字节数。 统计数据：Minimum、Maximum、Average、Sum、Samples 单位：字节  | 
| DeliveryToSplunk.DataAckLatency |  Amazon Data Firehose 向 Splunk 发送数据后，从 Splunk 接收确认所需的大致时间。此指标的增加或减少趋势比绝对近似值更有用。增长趋势可能表明 Splunk 索引器的索引和确认速度较慢。 统计数据：Minimum、Maximum、Average、Samples 单位：秒  | 
| DeliveryToSplunk.DataFreshness |  Amazon Data Firehose 中最早记录的期限（从进入 Amazon Data Firehose 到现在）。任何大于此年龄的记录已传送到 Splunk。 统计数据：Minimum、Maximum、Average、Samples 单位：秒  | 
| DeliveryToSplunk.Records |  在指定时段内传送到 Splunk 的记录数。 统计数据：Minimum、Maximum、Average、Sum、Samples 单位：计数  | 
| DeliveryToSplunk.Success |  已成功编制索引的记录的总和。  | 
| IncomingBytes |  在指定时段内成功摄取到 Firehose 流的字节数。当数据摄取超过 Firehose 流限制之一时，可能会受到限制。受限制的数据将不计为 `IncomingBytes`。 统计数据：Minimum、Maximum、Average、Sum、Samples 单位：字节  | 
| IncomingPutRequests | 指定时间段内的成功 PutRecordBatch请求数 PutRecord 和请求数。 统计数据：Minimum、Maximum、Average、Sum、Samples 单位：计数 | 
| IncomingRecords |  在指定时段内成功摄取到 Firehose 流的记录数。当数据摄取超过 Firehose 流限制之一时，可能会受到限制。受限制的数据将不计为 `IncomingRecords`。 统计数据：Minimum、Maximum、Average、Sum、Samples 单位：计数  | 
| RecordsPerSecondLimit | 在限制之前 Firehose 流当前每秒可以摄取的最大记录数。 统计数据：Minimum、Maximum、Average、Sum、Samples 单位：计数 | 
| ThrottledRecords | 由于数据摄取超过其中一个 Firehose 流限制而受到限制的记录数。 统计数据：Minimum、Maximum、Average、Sum、Samples 单位：计数 | 

### 从 MSK 进行的数据摄取
<a name="fh-ingestion-msk-metrics"></a>


| 指标 | 说明 | 
| --- | --- | 
|  DataReadFromSource.Records  |  从源 Kafka 主题读取的记录数。 统计数据：Minimum、Maximum、Average、Sum、Samples 单位：计数  | 
|  DataReadFromSource.Bytes  |  从源 Kafka 主题读取的字节数。 统计数据：Minimum、Maximum、Average、Sum、Samples 单位：字节  | 
|  SourceThrottled.Delay  |  源 Kafka 集群从源 Kafka 主题返回记录的延迟时间。 统计数据：Minimum、Maximum、Average、Samples 单位：毫秒  | 
|  BytesPerSecondLimit  |  Firehose 从源 Kafka 主题的每个分区读取数据的当前吞吐量限制。 统计数据：Minimum、Maximum、Average、Sum、Samples 单位：字节/秒  | 
|  KafkaOffsetLag  |  Firehose 从源 Kafka 主题读取的记录的最大偏移量与源 Kafka 主题可用记录的最大偏移量之间的差异。 统计数据：Minimum、Maximum、Average、Sum、Samples 单位：计数  | 
|  FailedValidation.Records  |  记录验证失败的记录数。 统计数据：Minimum、Maximum、Average、Sum、Samples 单位：计数  | 
|  FailedValidation.Bytes  |  记录验证失败的字节数。 统计数据：Minimum、Maximum、Average、Sum、Samples 单位：字节  | 
|  DataReadFromSource.Backpressured  |  表示 Firehose 流延迟从源分区读取记录，要么是因为 BytesPerSecondLimit 每个分区已超过，要么是正常的传送流程缓慢或已停止 单位：布尔值  | 

## API 级别 CloudWatch 的指标
<a name="fh-metrics-api-cw"></a>

`AWS/Firehose` 命名空间包括以下 API 级指标。


| 指标 | 说明 | 
| --- | --- | 
| DescribeDeliveryStream.Latency |  在指定时段内测量的每个 `DescribeDeliveryStream` 操作所用的时间。 统计数据：Minimum、Maximum、Average、Samples 单位：毫秒  | 
| DescribeDeliveryStream.Requests |  `DescribeDeliveryStream` 请求的总数。 统计数据：Minimum、Maximum、Average、Sum、Samples 单位：计数  | 
| ListDeliveryStreams.Latency |  在指定时段内测量的每个 `ListDeliveryStream` 操作所用的时间。 统计数据：Minimum、Maximum、Average、Samples 单位：毫秒  | 
| ListDeliveryStreams.Requests |  `ListFirehose` 请求的总数。 统计数据：Minimum、Maximum、Average、Sum、Samples 单位：计数  | 
| PutRecord.Bytes |  在指定时段内使用 `PutRecord` 放入 Firehose 流的字节数。 统计数据：Minimum、Maximum、Average、Sum、Samples 单位：字节  | 
| PutRecord.Latency |  在指定时段内测量的每个 `PutRecord` 操作所用的时间。 统计数据：Minimum、Maximum、Average、Samples 单位：毫秒  | 
| PutRecord.Requests |  `PutRecord` 请求的总数，此数目等于来自 `PutRecord` 操作的记录的总数。 统计数据：Minimum、Maximum、Average、Sum、Samples 单位：计数  | 
| PutRecordBatch.Bytes |  在指定时段内使用 `PutRecordBatch` 放入 Firehose 流的字节数。 统计数据：Minimum、Maximum、Average、Sum、Samples 单位：字节  | 
| PutRecordBatch.Latency |  在指定时段内测量的每个 `PutRecordBatch` 操作所用的时间。 统计数据：Minimum、Maximum、Average、Samples 单位：毫秒  | 
| PutRecordBatch.Records |  来自 `PutRecordBatch` 操作的记录的总数。 统计数据：Minimum、Maximum、Average、Sum、Samples 单位：计数  | 
| PutRecordBatch.Requests |  `PutRecordBatch` 请求的总数。 统计数据：Minimum、Maximum、Average、Sum、Samples 单位：计数  | 
| PutRequestsPerSecondLimit | 在限制之前 Firehose 流可以处理的每秒最大输入请求数。此数字包括 PutRecord 和 PutRecordBatch 请求。 统计数据：Minimum、Maximum、Average、Sum、Samples 单位：计数 | 
| ThrottledDescribeStream |  当数据来源是 Kinesis 数据流时，`DescribeStream` 操作受到限制的总次数。 统计数据：Minimum、Maximum、Average、Sum、Samples 单位：计数  | 
| ThrottledGetRecords |  当数据来源是 Kinesis 数据流时，`GetRecords` 操作受到限制的总次数。 统计数据：Minimum、Maximum、Average、Sum、Samples 单位：计数  | 
| ThrottledGetShardIterator |  当数据来源是 Kinesis 数据流时，`GetShardIterator` 操作受到限制的总次数。 统计数据：Minimum、Maximum、Average、Sum、Samples 单位：计数  | 
| UpdateDeliveryStream.Latency |  在指定时段内测量的每个 `UpdateDeliveryStream` 操作所用的时间。 统计数据：Minimum、Maximum、Average、Samples 单位：毫秒  | 
| UpdateDeliveryStream.Requests |  `UpdateDeliveryStream` 请求的总数。 统计数据：Minimum、Maximum、Average、Sum、Samples 单位：计数  | 

## 数据转换 CloudWatch 指标
<a name="fh-metrics-data-transformation"></a>

如果启用 Lambda 数据转换，`AWS/Firehose` 命名空间将包含以下指标。


| 指标 | 说明 | 
| --- | --- | 
| ExecuteProcessing.Duration |  Firehose 执行每次 Lambda 函数调用所花的时间。 单位：毫秒  | 
| ExecuteProcessing.Success |  成功的 Lambda 函数调用总和相比总的 Lambda 函数调用次数。  | 
| SucceedProcessing.Records |  在指定时间段内成功处理的记录数。 单位：计数  | 
| SucceedProcessing.Bytes |  在指定时间段内成功处理的字节数。 单位：字节  | 

## CloudWatch 日志解压缩指标
<a name="decompression-metrics-cw"></a>

如果为 CloudWatch 日志传输启用了解压缩，则`AWS/Firehose`命名空间将包含以下指标。


| 指标 | 说明 | 
| --- | --- | 
| OutputDecompressedBytes.Success |  解压缩成功的数据（以字节为单位） 统计数据：Minimum、Maximum、Average、Sum、Samples 单位：字节  | 
| OutputDecompressedBytes.Failed |  解压缩失败的数据（以字节为单位） 统计数据：Minimum、Maximum、Average、Sum、Samples 单位：字节  | 
| OutputDecompressedRecords.Success |  解压缩成功的记录数量 统计数据：Minimum、Maximum、Average、Sum、Samples 单位：计数  | 
| OutputDecompressedRecords.Failed |  解压缩失败的记录数量 统计数据：Minimum、Maximum、Average、Sum、Samples 单位：计数  | 

## 格式化转化 CloudWatch 指标
<a name="fh-metrics-format-conversion"></a>

如果启用了格式转换，`AWS/Firehose` 命名空间会包括以下指标。


| 指标 | 说明 | 
| --- | --- | 
| SucceedConversion.Records |  成功转换的记录的数量。 单位：计数  | 
| SucceedConversion.Bytes |  成功转换的记录的大小。 单位：字节  | 
| FailedConversion.Records |  未能转换的记录的数量。 单位：计数  | 
| FailedConversion.Bytes |  未能转换的记录的大小。 单位：字节  | 

## 服务器端加密 (SSE) 指标 CloudWatch
<a name="fh-metrics-sse"></a>

`AWS/Firehose` 命名空间包括以下与 SSE 相关的指标。


| 指标 | 说明 | 
| --- | --- | 
| KMSKeyAccessDenied |  服务遇到 Firehose 流的 `KMSAccessDeniedException` 的次数。 统计数据：Minimum、Maximum、Average、Sum、Samples 单位：计数  | 
| KMSKeyDisabled |  服务遇到 Firehose 流的 `KMSDisabledException` 的次数。 统计数据：Minimum、Maximum、Average、Sum、Samples 单位：计数  | 
| KMSKeyInvalidState |  服务遇到 Firehose 流的 `KMSInvalidStateException` 的次数。 统计数据：Minimum、Maximum、Average、Sum、Samples 单位：计数  | 
| KMSKeyNotFound |  服务遇到 Firehose 流的 `KMSNotFoundException` 的次数。 统计数据：Minimum、Maximum、Average、Sum、Samples 单位：计数  | 

## Amazon Data Firehose 的维度
<a name="firehose-metric-dimensions"></a>

要按 Firehose 流筛选指标，请使用 `DeliveryStreamName` 维度。

## Amazon Data Firehose 用量指标
<a name="fh-metrics-usage"></a>

您可以使用 CloudWatch 使用量指标来了解您的账户的资源使用情况。使用这些指标在 CloudWatch 图表和仪表板上可视化您当前的服务使用情况。

服务配额使用情况指标位于 AWS/Usage 命名空间中，每三分钟收集一次。

目前，该命名空间中唯一 CloudWatch 发布的指标名称是`ResourceCount`。此指标与 `Service`、`Class`、`Type` 和 `Resource` 维度一同发布。


| 指标 | 描述 | 
| --- | --- | 
| ResourceCount |  您账户中运行的指定资源的数量。资源由与指标关联的维度定义。 此指标最有用的统计数据是 MAXIMUM，它表示在 3 分钟内使用的最大资源数。  | 

以下维度用于优化 Amazon Data Firehose 发布的用量指标。


| 维度 | 说明 | 
| --- | --- | 
| Service |  包含资源的 AWS 服务的名称。对于 Amazon Data Firehose 用量指标，此维度的值为 `Firehose`。  | 
| Class |  所跟踪的资源的类。Amazon Data Firehose API 用量指标使用值为 `None` 的维度。  | 
| Type |  所跟踪的资源的类型。当前，当服务维度为 `Firehose` 时，类型的唯一有效值为 `Resource`。  | 
| Resource |   AWS 资源的名称。目前，当服务维度为 `Firehose` 时，资源的唯一有效值为 `DeliveryStreams`。  | 