

翻訳は機械翻訳により提供されています。提供された翻訳内容と英語版の間で齟齬、不一致または矛盾がある場合、英語版が優先します。

# CloudWatch メトリクスを使用して Amazon Data Firehose をモニタリングする
<a name="monitoring-with-cloudwatch-metrics"></a>

**重要**  
エラーをタイミングよく特定できるように、送信先に属するすべての CloudWatch メトリクスでアラームを有効にします。

Amazon Data Firehose は Amazon CloudWatch メトリクスと統合されているため、Firehose ストリームの CloudWatch メトリクスを収集、表示、および分析できます。例えば、`IncomingBytes` および `IncomingRecords` メトリクスをモニタリングして、データプロデューサーから Amazon Data Firehose に取り込まれるデータを追跡できます。

Amazon Data Firehose は CloudWatch メトリクスを 1 分ごとに収集して公開します。ただし、受信データのバーストが数秒間しか続かない場合は、1 分ごとの収集ではメトリクスが完全にキャプチャされないか表示されない可能性があります。これは、CloudWatch メトリクスが Amazon Data Firehose から 1 分間隔で集約されるためです。

Firehose ストリーム用に収集されたメトリクスは無料です。Kinesis エージェントのメトリクスの詳細については、「[Kinesis エージェントの状態をモニタリングする](agent-health.md)」を参照してください。

**Topics**
+ [動的パーティショニングの CloudWatch メトリクス](#dp-metrics-cw)
+ [データ配信の CloudWatch メトリクス](#fh-metrics-cw)
+ [データ取り込みメトリクス](#fh-ingestion-metrics)
+ [API レベルの CloudWatch メトリクス](#fh-metrics-api-cw)
+ [データ変換 CloudWatch メトリクス](#fh-metrics-data-transformation)
+ [CloudWatch Logs の解凍メトリクス](#decompression-metrics-cw)
+ [形式変換 CloudWatch メトリクス](#fh-metrics-format-conversion)
+ [サーバー側の暗号化 (SSE) CloudWatch のメトリクス](#fh-metrics-sse)
+ [Amazon Data Firehose のディメンション](#firehose-metric-dimensions)
+ [Amazon Data Firehose の使用状況メトリクス](#fh-metrics-usage)

## 動的パーティショニングの CloudWatch メトリクス
<a name="dp-metrics-cw"></a>

[動的パーティショニング](dynamic-partitioning.md)が有効になっている場合、 AWS/Firehose 名前空間には次のメトリクスが含まれます。


| メトリクス | 説明 | 
| --- | --- | 
| ActivePartitionsLimit |  エラーバケットにデータを送信する前に Firehose ストリームが処理するアクティブなパーティションの最大数。 統計: Minimum、Maximum、Average、Sum、Samples 単位: カウント  | 
| PartitionCount |  処理されているパーティションの数、つまりアクティブなパーティション数。この数は、1 からパーティション数の制限である 500 (デフォルト) の間で変化します。 統計: Minimum、Maximum、Average、Sum、Samples 単位: カウント  | 
| PartitionCountExceeded |  このメトリクスは、パーティション数の制限を超えているかどうかを示します。制限に違反したかどうかに基づいて 1 または 0 を出力します。  | 
| JQProcessing.Duration |  JQ Lambda 関数で JQ 式を実行するのにかかった時間を返します。 単位: ミリ秒  | 
| PerPartitionThroughput |  パーティションごとに処理されているスループットを示します。このメトリクスを使用すると、パーティションごとのスループットをモニタリングできます。 単位: StandardUnit.BytesSecond  | 
| DeliveryToS3.ObjectCount |  S3 バケットに配信されるオブジェクトの数を示します。 統計: Minimum、Maximum、Average、Sum、Samples 単位: カウント  | 

## データ配信の CloudWatch メトリクス
<a name="fh-metrics-cw"></a>

`AWS/Firehose` 名前空間には、次のサービスレベルメトリクスが含まれます。`BackupToS3.Success`、`DeliveryToS3.Success`、`DeliveryToSplunk.Success`、`DeliveryToAmazonOpenSearchService.Success`、または `DeliveryToRedshift.Success` の平均値がわずかに下がっても、データ損失を示しているわけではありません。Amazon Data Firehose は、配信エラーを再試行し、設定された宛先またはバックアップ S3 バケットのいずれかにレコードが正常に配信されるまで次の処理に移行しません。

**Topics**
+ [OpenSearch サービスへの配信](#fh-es-metrics)
+ [OpenSearch Serverless への配信](#fh-serverless-metrics)
+ [Amazon Redshift への配信](#fh-redshift-metrics)
+ [Amazon S3 への配信](#fh-s3-metrics)
+ [Snowflake への配信](#fh-snowflake-metrics)
+ [Splunk への配信](#fh-splunk-metrics)
+ [HTTP エンドポイントへの配信](#fh-http-metrics)

### OpenSearch サービスへの配信
<a name="fh-es-metrics"></a>


| メトリクス | 説明 | 
| --- | --- | 
| DeliveryToAmazonOpenSearchService.Bytes |  指定された期間に OpenSearch Service にインデックス作成されたバイト数。 統計: Minimum、Maximum、Average、Sum、Samples 単位: バイト  | 
| DeliveryToAmazonOpenSearchService.DataFreshness |  Amazon Data Firehose の最も古いレコードの経過時間 (Amazon Data Firehose に入ってから現在まで)。この経過時間より古いレコードはすべて OpenSearch Service に配信済みです。 統計: Minimum、Maximum、Average、Sum、Samples 単位: 秒  | 
| DeliveryToAmazonOpenSearchService.Records |  指定された期間に OpenSearch Service にインデックス作成されたレコード数。 統計: Minimum、Maximum、Average、Sum、Samples 単位: カウント  | 
| DeliveryToAmazonOpenSearchService.Success |  正常にインデックスが作成されたレコードの合計。  | 
| DeliveryToS3.Bytes |  指定された期間に Amazon S3 に配信されたバイト数。Amazon Data Firehose は、すべてのドキュメントのバックアップを有効にした場合にのみこのメトリクスを出力します。 統計: Minimum、Maximum、Average、Sum、Samples 単位: カウント  | 
| DeliveryToS3.DataFreshness |  Amazon Data Firehose の最も古いレコードの経過時間 (Amazon Data Firehose に入ってから現在まで)。この経過時間より古いレコードは S3 バケットに配信済みです。Amazon Data Firehose は、すべてのドキュメントのバックアップを有効にした場合にのみこのメトリクスを出力します。 単位: 秒  | 
| DeliveryToS3.Records |  指定された期間に Amazon S3 に配信されたレコード数。Amazon Data Firehose は、すべてのドキュメントのバックアップを有効にした場合にのみこのメトリクスを出力します。 統計: Minimum、Maximum、Average、Sum、Samples 単位: カウント  | 
| DeliveryToS3.Success |  成功した Amazon S3 の put コマンドの合計。Amazon Data Firehose は、バックアップが失敗したドキュメントのためにのみ有効か、すべてのドキュメントのために有効かにかかわらず、常にこのメトリクスを出力します。  | 
| DeliveryToAmazonOpenSearchService.AuthFailure |  認証/認可のエラー。OS/ES クラスターポリシーとロールのアクセス許可を確認します。 0 は問題がないことを示します。1 は認証に失敗したことを示します。  | 
| DeliveryToAmazonOpenSearchService.DeliveryRejected |  配信拒否エラー。OS/ES クラスターポリシーとロールのアクセス許可を確認します。 0 は問題がないことを示します。1 は配信に失敗したことを示します。  | 

### OpenSearch Serverless への配信
<a name="fh-serverless-metrics"></a>


| メトリクス | 説明 | 
| --- | --- | 
| DeliveryToAmazonOpenSearchServerless.Bytes |  指定された期間に OpenSearch Serverless にインデックス作成されたバイト数。 統計: Minimum、Maximum、Average、Sum、Samples 単位: バイト  | 
| DeliveryToAmazonOpenSearchServerless.DataFreshness |  Amazon Data Firehose の最も古いレコードの経過時間 (Amazon Data Firehose に入ってから現在まで)。この経過時間より古いレコードはすべて OpenSearch Serverless に配信済みです。 単位: 秒  | 
| DeliveryToAmazonOpenSearchServerless.Records |  指定された期間に OpenSearch Serverless にインデックス作成されたレコード数。 統計: Minimum、Maximum、Average、Sum、Samples 単位: カウント  | 
| DeliveryToAmazonOpenSearchServerless.Success |  正常にインデックスが作成されたレコードの合計。  | 
| DeliveryToS3.Bytes |  指定された期間に Amazon S3 に配信されたバイト数。Amazon Data Firehose は、すべてのドキュメントのバックアップを有効にした場合にのみこのメトリクスを出力します。 統計: Minimum、Maximum、Average、Sum、Samples 単位: カウント  | 
| DeliveryToS3.DataFreshness |  Amazon Data Firehose の最も古いレコードの経過時間 (Amazon Data Firehose に入ってから現在まで)。この経過時間より古いレコードは S3 バケットに配信済みです。Amazon Data Firehose は、すべてのドキュメントのバックアップを有効にした場合にのみこのメトリクスを出力します。 単位: 秒  | 
| DeliveryToS3.Records |  指定された期間に Amazon S3 に配信されたレコード数。Amazon Data Firehose は、すべてのドキュメントのバックアップを有効にした場合にのみこのメトリクスを出力します。 単位: カウント  | 
| DeliveryToS3.Success |  成功した Amazon S3 の put コマンドの合計。Amazon Data Firehose は、バックアップが失敗したドキュメントのためにのみ有効か、すべてのドキュメントのために有効かにかかわらず、常にこのメトリクスを出力します。  | 
| DeliveryToAmazonOpenSearchServerless.AuthFailure |  認証/認可のエラー。OS/ES クラスターポリシーとロールのアクセス許可を確認します。 0 は問題がないことを示します。1 は認証の失敗があることを示します。  | 
| DeliveryToAmazonOpenSearchServerless.DeliveryRejected |  配信拒否エラー。OS/ES クラスターポリシーとロールのアクセス許可を確認します。 0 は問題がないことを示します。1 は配信の失敗があることを示します。  | 

### Amazon Redshift への配信
<a name="fh-redshift-metrics"></a>


| メトリクス | 説明 | 
| --- | --- | 
| DeliveryToRedshift.Bytes |  指定された期間に Amazon Redshift にコピーされたバイト数。 統計: Minimum、Maximum、Average、Sum、Samples 単位: カウント  | 
| DeliveryToRedshift.Records |  指定された期間に Amazon Redshift にコピーされたレコード数。 統計: Minimum、Maximum、Average、Sum、Samples 単位: カウント  | 
| DeliveryToRedshift.Success |  成功した Amazon Redshift の COPY コマンドの合計。  | 
| DeliveryToS3.Bytes |  指定された期間に Amazon S3 に配信されたバイト数。 統計: Minimum、Maximum、Average、Sum、Samples 単位: バイト  | 
| DeliveryToS3.DataFreshness |  Amazon Data Firehose の最も古いレコードの経過時間 (Amazon Data Firehose に入ってから現在まで)。この経過時間より古いレコードはすべて S3 バケットに配信されます。 単位: 秒  | 
| DeliveryToS3.Records |  指定された期間に Amazon S3 に配信されたレコード数。 統計: Minimum、Maximum、Average、Sum、Samples 単位: カウント  | 
| DeliveryToS3.Success |  成功した Amazon S3 の put コマンドの合計。  | 
| DeliveryToRedshift.DataFreshness |  Amazon Data Firehose の最も古いレコードの経過時間 (Amazon Data Firehose に入ってから現在まで)。この経過時間より古いレコードはすべて Amazon Redshift クラスターに配信されます。  | 
| BackupToS3.Bytes |  指定された期間にバックアップのために Amazon S3 に配信されたバイト数。Amazon Data Firehose は、Amazon S3 へのバックアップが有効になっているときに、このメトリクスを出力します。 統計: Minimum、Maximum、Average、Sum、Samples 単位: カウント  | 
| BackupToS3.DataFreshness |  Amazon Data Firehose の最も古いレコードの経過時間 (Amazon Data Firehose に入ってから現在まで)。この経過時間より古いレコードはバックアップのために Amazon S3 バケットに配信済みです。Amazon Data Firehose は、Amazon S3 へのバックアップが有効になっているときに、このメトリクスを出力します。 統計: Minimum、Maximum、Average、Samples 単位: 秒  | 
| BackupToS3.Records |  指定された期間にバックアップのために Amazon S3 に配信されたレコード数。Amazon Data Firehose は、Amazon S3 へのバックアップが有効になっているときに、このメトリクスを出力します。 統計: Minimum、Maximum、Average、Sum、Samples 単位: カウント  | 
| BackupToS3.Success |  成功した Amazon S3 の put コマンド (バックアップ用) の合計。Amazon Data Firehose は、Amazon S3 へのバックアップが有効になっているときに、このメトリクスを出力します。  | 

### Amazon S3 への配信
<a name="fh-s3-metrics"></a>

次の表のメトリクスは、Firehose ストリームのメイン宛先が Amazon S3 の場合に、その配信に関連するものです。


| メトリクス | 説明 | 
| --- | --- | 
| DeliveryToS3.Bytes |  指定された期間に Amazon S3 に配信されたバイト数。データ変換を有効にすると、このメトリクスは変換前に前処理されたバイトサイズを反映します。 統計: Minimum、Maximum、Average、Sum、Samples 単位: バイト  | 
| DeliveryToS3.DataFreshness |  Amazon Data Firehose の最も古いレコードの経過時間 (Amazon Data Firehose に入ってから現在まで)。この経過時間より古いレコードは S3 バケットに配信済みです。 統計: Minimum、Maximum、Average、Samples 単位: 秒  | 
| DeliveryToS3.Records |  指定された期間に Amazon S3 に配信されたレコード数。 統計: Minimum、Maximum、Average、Sum、Samples 単位: カウント  | 
| DeliveryToS3.Success |  成功した Amazon S3 の put コマンドの合計。  | 
| BackupToS3.Bytes |  指定された期間にバックアップのために Amazon S3 に配信されたバイト数。Amazon Data Firehose は、バックアップが有効になっているときに、このメトリクスを出力します (データ変換も有効になっている場合にのみ可能)。 統計: Minimum、Maximum、Average、Sum、Samples 単位: カウント  | 
| BackupToS3.DataFreshness |  Amazon Data Firehose の最も古いレコードの経過時間 (Amazon Data Firehose に入ってから現在まで)。この経過時間より古いレコードはバックアップのために Amazon S3 バケットに配信済みです。Amazon Data Firehose は、バックアップが有効になっているときに、このメトリクスを出力します (データ変換も有効になっている場合にのみ可能)。 統計: Minimum、Maximum、Average、Samples 単位: 秒  | 
| BackupToS3.Records |  指定された期間にバックアップのために Amazon S3 に配信されたレコード数。Amazon Data Firehose は、バックアップが有効になっているときに、このメトリクスを出力します (データ変換も有効になっている場合にのみ可能)。 統計: Minimum、Maximum、Average、Sum、Samples 単位: カウント  | 
| BackupToS3.Success |  成功した Amazon S3 の put コマンド (バックアップ用) の合計。Amazon Data Firehose は、バックアップが有効になっているときに、このメトリクスを出力します (データ変換も有効になっている場合にのみ可能)。  | 

### Snowflake への配信
<a name="fh-snowflake-metrics"></a>


| メトリクス | 説明 | 
| --- | --- | 
| DeliveryToSnowflake.Bytes |  指定された期間に Snowflake に配信されたバイト数。 統計: Minimum、Maximum、Average、Sum、Samples 単位: バイト  | 
| DeliveryToSnowflake.DataFreshness |  Firehose の最も古いレコードの経過時間 (Firehose に入ってから現在まで)。この経過時間より古いレコードはすべて Snowflake に配信済みです。Firehose 挿入呼び出しが成功した後、Snowflake にデータをコミットするまでに数秒かかる場合があることに留意してください。Snowflake にデータをコミットするのにかかる時間については、`DeliveryToSnowflake.DataCommitLatency` メトリクスを参照してください。 統計: Minimum、Maximum、Average、Samples 単位: 秒  | 
| DeliveryToSnowflake.DataCommitLatency | Firehose がレコードを正常に挿入した後、データが Snowflake にコミットされるまでにかかる時間。統計: Minimum、Maximum、Average、Samples 単位: 秒 | 
| DeliveryToSnowflake.Records |  指定された期間に Snowflake に配信されたレコード数。 統計: Minimum、Maximum、Average、Sum、Samples 単位: カウント  | 
| DeliveryToSnowflake.Success | Snowflake に対して行われた正常な挿入呼び出しの合計。 | 
| DeliveryToS3.Bytes | 指定された期間に Amazon S3 に配信されたバイト数。このメトリクスは、Snowflake への配信が失敗し、失敗したデータの S3 へのバックアップを Firehose が試行する場合にのみ使用できます。統計: Minimum、Maximum、Average、Sum、Samples 単位: バイト | 
| DeliveryToS3.Records | 指定された期間に Amazon S3 に配信されたレコード数。このメトリクスは、Snowflake への配信が失敗し、失敗したデータの S3 へのバックアップを Firehose が試行する場合にのみ使用できます。統計: Minimum、Maximum、Average、Sum、Samples 単位: カウント | 
| DeliveryToS3.Success | 成功した Amazon S3 の put コマンドの合計。このメトリクスは、Snowflake への配信が失敗し、失敗したデータの S3 へのバックアップを Firehose が試行する場合にのみ使用できます。 | 
| BackupToS3.DataFreshness | Firehose 内の最も古いレコードが作成されてから経過した期間 (Firehose に入ってから現在まで)。作成されてから経過した期間がこれよりも長いレコードはすべて Amazon S3 バケットにバックアップされます。このメトリクスは、すべてのデータをバックアップするように Firehose ストリームが設定されている場合に使用できます。統計: Minimum、Maximum、Average、Samples 単位: 秒 | 
| BackupToS3.Records | 指定された期間にバックアップのために Amazon S3 に配信されたレコード数。このメトリクスは、すべてのデータをバックアップするように Firehose ストリームが設定されている場合に使用できます。統計: Minimum、Maximum、Average、Sum、Samples 単位: カウント | 
| BackupToS3.Bytes | 指定された期間にバックアップのために Amazon S3 に配信されたバイト数。このメトリクスは、すべてのデータをバックアップするように Firehose ストリームが設定されている場合に使用できます。統計: Minimum、Maximum、Average、Sum、Samples 単位: カウント | 
| BackupToS3.Success | 成功した Amazon S3 の put コマンド (バックアップ用) の合計。Firehose は、Firehose ストリームがすべてのデータをバックアップするように設定されている場合に、このメトリクスを出力します。 | 

### Splunk への配信
<a name="fh-splunk-metrics"></a>


| メトリクス | 説明 | 
| --- | --- | 
| DeliveryToSplunk.Bytes |  指定された期間に Splunk に配信されたバイト数。 統計: Minimum、Maximum、Average、Sum、Samples 単位: バイト  | 
| DeliveryToSplunk.DataAckLatency |  Amazon Data Firehose がデータを送信した後、Splunk から確認応答を受信するまでの概算時間。このメトリクスの増加または減少傾向は、絶対概算値よりも有用です。傾向が増加すると、Splunk インデクサからのインデックス作成および送達確認の速度が遅くなる可能性があります。 統計: Minimum、Maximum、Average、Samples 単位: 秒  | 
| DeliveryToSplunk.DataFreshness |  Amazon Data Firehose の最も古いレコードの経過時間 (Amazon Data Firehose に入ってから現在まで)。この経過時間より古いレコードは Splunk に配信済みです。 統計: Minimum、Maximum、Average、Samples 単位: 秒  | 
| DeliveryToSplunk.Records |  指定された期間に Splunk に配信されたレコード数。 統計: Minimum、Maximum、Average、Sum、Samples 単位: カウント  | 
| DeliveryToSplunk.Success |  正常にインデックスが作成されたレコードの合計。  | 
| DeliveryToS3.Success |  成功した Amazon S3 の put コマンドの合計。このメトリクスは、Amazon S3 へのバックアップが有効な場合に出力されます。  | 
| BackupToS3.Bytes |  指定された期間にバックアップのために Amazon S3 に配信されたバイト数。Amazon Data Firehose は、Firehose ストリームがすべてのドキュメントをバックアップするように設定されている場合に、このメトリクスを出力します。 統計: Minimum、Maximum、Average、Sum、Samples 単位: カウント  | 
| BackupToS3.DataFreshness |  Amazon Data Firehose の最も古いレコードの経過時間 (Amazon Data Firehose に入ってから現在まで)。この経過時間より古いレコードはバックアップのために Amazon S3 バケットに配信済みです。Amazon Data Firehose は、Firehose ストリームがすべてのドキュメントをバックアップするように設定されている場合に、このメトリクスを出力します。 統計: Minimum、Maximum、Average、Samples 単位: 秒  | 
| BackupToS3.Records |  指定された期間にバックアップのために Amazon S3 に配信されたレコード数。Amazon Data Firehose は、Firehose ストリームがすべてのドキュメントをバックアップするように設定されている場合に、このメトリクスを出力します。 統計: Minimum、Maximum、Average、Sum、Samples 単位: カウント  | 
| BackupToS3.Success |  成功した Amazon S3 の put コマンド (バックアップ用) の合計。Amazon Data Firehose は、Firehose ストリームがすべてのドキュメントをバックアップするように設定されている場合に、このメトリクスを出力します。  | 

### HTTP エンドポイントへの配信
<a name="fh-http-metrics"></a>


| メトリクス | 説明 | 
| --- | --- | 
| DeliveryToHttpEndpoint.Bytes |  HTTP エンドポイントに正常に配信されたバイト数。 統計: Minimum、Maximum、Average、Sum、Samples 単位: バイト  | 
| DeliveryToHttpEndpoint.Records |  HTTP エンドポイントに正常に配信されたレコード数。このメトリクスは、成功した配信試行に対してのみ出力され、配信試行が失敗したときに出力されません。 統計: Minimum、Maximum、Average、Sum、Samples 単位: カウント  | 
| DeliveryToHttpEndpoint.DataFreshness |  Amazon Data Firehose で最も古い記録の経過期間。 統計: Minimum、Maximum、Average、Samples 単位: 秒  | 
| DeliveryToHttpEndpoint.Success |  配信試行ごとに HTTP エンドポイントに正常に配信されたレコードの数。とは異なり`DeliveryToHttpEndpoint.Records`、このメトリクスは配信の試行ごとに出力されます。成功すると、 値は配信試行のレコード数と等しくなります。配信試行のすべてのレコードが失敗した場合、値は 0 です。Minimum 統計を使用して、配信の失敗をモニタリングします。 統計: Minimum、Maximum、Average、Sum、Samples 単位: カウント  | 
| DeliveryToHttpEndpoint.ProcessedBytes |  再試行を含む、試行された処理済みのバイト数。  | 
| DeliveryToHttpEndpoint.ProcessedRecords |  再試行を含む試行されたレコードの数。  | 

## データ取り込みメトリクス
<a name="fh-ingestion-metrics"></a>

**Topics**
+ [Kinesis Data Streams によるデータ取り込み](#fh-ingestion-kds-metrics)
+ [Direct PUT によるデータ取り込み](#fh-ingestion-directput-metrics)
+ [MSK からのデータの取り込み](#fh-ingestion-msk-metrics)

### Kinesis Data Streams によるデータ取り込み
<a name="fh-ingestion-kds-metrics"></a>


| メトリクス | 説明 | 
| --- | --- | 
| DataReadFromKinesisStream.Bytes |  データソースが Kinesis データストリームである場合、このメトリクスは、そのデータストリームから読み取られたバイト数を示します。この数には、フェイルオーバーによる再読み取りが含まれます。 統計: Minimum、Maximum、Average、Sum、Samples 単位: バイト  | 
| DataReadFromKinesisStream.Records |  データソースが Kinesis データストリームである場合、このメトリクスは、そのデータストリームから読み取ったレコード数を示します。この数には、フェイルオーバーによる再読み取りが含まれます。 統計: Minimum、Maximum、Average、Sum、Samples 単位: カウント  | 
| ThrottledDescribeStream |  データソースが Kinesis データストリームである場合に `DescribeStream` オペレーションが調整される合計回数。 統計: Minimum、Maximum、Average、Sum、Samples 単位: カウント  | 
| ThrottledGetRecords |  データソースが Kinesis データストリームである場合に `GetRecords` オペレーションが調整される合計回数。 統計: Minimum、Maximum、Average、Sum、Samples 単位: カウント  | 
| ThrottledGetShardIterator |  データソースが Kinesis データストリームである場合に `GetShardIterator` オペレーションが調整される合計回数。 統計: Minimum、Maximum、Average、Sum、Samples 単位: カウント  | 
| KinesisMillisBehindLatest |  データソースが Kinesis データストリームである場合、このメトリクスは、Kinesis データストリームで最後の読み取りレコードが最新のレコードから遅れている時間 (ミリ秒単位) を示します。 統計: Minimum、Maximum、Average、Samples 単位: ミリ秒  | 

### Direct PUT によるデータ取り込み
<a name="fh-ingestion-directput-metrics"></a>


| メトリクス | 説明 | 
| --- | --- | 
| BackupToS3.Bytes |  指定された期間にバックアップのために Amazon S3 に配信されたバイト数。Amazon S3 または Amazon Redshift の宛先のためにデータ変換が有効になっているときに、Amazon Data Firehose は、このメトリクスを出力します。 統計: Minimum、Maximum、Average、Sum、Samples 単位: バイト  | 
| BackupToS3.DataFreshness |  Amazon Data Firehose の最も古いレコードの経過時間 (Amazon Data Firehose に入ってから現在まで)。この経過時間より古いレコードはバックアップのために Amazon S3 バケットに配信済みです。Amazon S3 または Amazon Redshift の宛先のためにデータ変換が有効になっているときに、Amazon Data Firehose は、このメトリクスを出力します。 統計: Minimum、Maximum、Average、Samples 単位: 秒  | 
| BackupToS3.Records |  指定された期間にバックアップのために Amazon S3 に配信されたレコード数。Amazon S3 または Amazon Redshift の宛先のためにデータ変換が有効になっているときに、Amazon Data Firehose は、このメトリクスを出力します。 統計: Minimum、Maximum、Average、Sum、Samples 単位: カウント  | 
| BackupToS3.Success |  成功した Amazon S3 の put コマンド (バックアップ用) の合計。Amazon S3 または Amazon Redshift の宛先のためにデータ変換が有効になっているときに、Amazon Data Firehose は、このメトリクスを出力します。  | 
| BytesPerSecondLimit | Firehose ストリームがスロットリング前に取り込むことのできる 1 秒あたりの現在の最大バイト数。この制限の引き上げをリクエストするには、[AWS サポートセンター](https://console.aws.amazon.com/support/home)に移動し、[ケースの作成]、[サービスの制限緩和] の順に選択します。 | 
| DeliveryToAmazonOpenSearchService.Bytes |  指定された期間に OpenSearch Service にインデックス作成されたバイト数。 統計: Minimum、Maximum、Average、Sum、Samples 単位: バイト  | 
| DeliveryToAmazonOpenSearchService.DataFreshness |  Amazon Data Firehose の最も古いレコードの経過時間 (Amazon Data Firehose に入ってから現在まで)。この経過時間より古いレコードはすべて OpenSearch Service に配信済みです。 統計: Minimum、Maximum、Average、Samples 単位: 秒  | 
| DeliveryToAmazonOpenSearchService.Records |  指定された期間に OpenSearch Service にインデックス作成されたレコード数。 統計: Minimum、Maximum、Average、Sum、Samples 単位: カウント  | 
| DeliveryToAmazonOpenSearchService.Success |  正常にインデックスが作成されたレコードの合計。  | 
| DeliveryToRedshift.Bytes |  指定された期間に Amazon Redshift にコピーされたバイト数。 統計: Minimum、Maximum、Average、Sum、Samples 単位: バイト  | 
| DeliveryToRedshift.Records |  指定された期間に Amazon Redshift にコピーされたレコード数。 統計: Minimum、Maximum、Average、Sum、Samples 単位: カウント  | 
| DeliveryToRedshift.Success |  成功した Amazon Redshift の COPY コマンドの合計。  | 
| DeliveryToS3.Bytes |  指定された期間に Amazon S3 に配信されたバイト数。 統計: Minimum、Maximum、Average、Sum、Samples 単位: バイト  | 
| DeliveryToS3.DataFreshness |  Amazon Data Firehose の最も古いレコードの経過時間 (Amazon Data Firehose に入ってから現在まで)。この経過時間より古いレコードは S3 バケットに配信済みです。 統計: Minimum、Maximum、Average、Samples 単位: 秒  | 
| DeliveryToS3.Records |  指定された期間に Amazon S3 に配信されたレコード数。 統計: Minimum、Maximum、Average、Sum、Samples 単位: カウント  | 
| DeliveryToS3.Success |  成功した Amazon S3 の put コマンドの合計。  | 
| DeliveryToSplunk.Bytes |  指定された期間に Splunk に配信されたバイト数。 統計: Minimum、Maximum、Average、Sum、Samples 単位: バイト  | 
| DeliveryToSplunk.DataAckLatency |  Amazon Data Firehose がデータを送信した後、Splunk から確認応答を受信するまでの概算時間。このメトリクスの増加または減少傾向は、絶対概算値よりも有用です。傾向が増加すると、Splunk インデクサからのインデックス作成および送達確認の速度が遅くなる可能性があります。 統計: Minimum、Maximum、Average、Samples 単位: 秒  | 
| DeliveryToSplunk.DataFreshness |  Amazon Data Firehose の最も古いレコードの経過時間 (Amazon Data Firehose に入ってから現在まで)。この経過時間より古いレコードは Splunk に配信済みです。 統計: Minimum、Maximum、Average、Samples 単位: 秒  | 
| DeliveryToSplunk.Records |  指定された期間に Splunk に配信されたレコード数。 統計: Minimum、Maximum、Average、Sum、Samples 単位: カウント  | 
| DeliveryToSplunk.Success |  正常にインデックスが作成されたレコードの合計。  | 
| IncomingBytes |  指定された期間に Firehose ストリームに正常に取り込まれたバイト数。データインジェストは、Firehose ストリーム制限のいずれかを超えるとスロットリングされる可能性があります。スロットリングされたデータは `IncomingBytes` にカウントされません。 統計: Minimum、Maximum、Average、Sum、Samples 単位: バイト  | 
| IncomingPutRequests | 指定した期間に成功した PutRecord リクエストと PutRecordBatch リクエストの数。 統計: Minimum、Maximum、Average、Sum、Samples 単位: カウント | 
| IncomingRecords |  指定された期間に Firehose ストリームに正常に取り込まれたレコード数。データインジェストは、Firehose ストリーム制限のいずれかを超えるとスロットリングされる可能性があります。スロットリングされたデータは `IncomingRecords` にカウントされません。 統計: Minimum、Maximum、Average、Sum、Samples 単位: カウント  | 
| RecordsPerSecondLimit | Firehose ストリームがスロットリング前に取り込むことのできる 1 秒あたりの現在の最大レコード数。 統計: Minimum、Maximum、Average、Sum、Samples 単位: カウント | 
| ThrottledRecords | データ取り込みが Firehose ストリームの制限の 1 つを超えたために調整されたレコードの数。 統計: Minimum、Maximum、Average、Sum、Samples 単位: カウント | 

### MSK からのデータの取り込み
<a name="fh-ingestion-msk-metrics"></a>


| メトリクス | 説明 | 
| --- | --- | 
|  DataReadFromSource.Records  |  ソースの Kafka トピックから読み取ったレコード数。 統計: Minimum、Maximum、Average、Sum、Samples 単位: カウント  | 
|  DataReadFromSource.Bytes  |  ソースの Kafka トピックから読み取ったバイト数。 統計: Minimum、Maximum、Average、Sum、Samples 単位: バイト  | 
|  SourceThrottled.Delay  |  ソースの Kafka クラスターが、ソースの Kafka トピックのレコードを返すときの遅延時間。 統計: Minimum、Maximum、Average、Samples 単位: ミリ秒  | 
|  BytesPerSecondLimit  |  Firehose がソースの Kafka トピックの各パーティションから読み取るスループットの現在の上限値。 統計: Minimum、Maximum、Average、Sum、Samples 単位: バイト/秒  | 
|  KafkaOffsetLag  |  Firehose がソースの Kafka トピックから読み取ったレコードの最大オフセットと、ソースの Kafka トピックから入手できるレコードの最大オフセットとの差。 統計: Minimum、Maximum、Average、Sum、Samples 単位: カウント  | 
|  FailedValidation.Records  |  レコード検証に失敗したレコード数。 統計: Minimum、Maximum、Average、Sum、Samples 単位: カウント  | 
|  FailedValidation.Bytes  |  レコード検証に失敗したバイト数。 統計: Minimum、Maximum、Average、Sum、Samples 単位: バイト  | 
|  DataReadFromSource.Backpressured  |  パーティションごとの BytesPerSecondLimit を超えたか、通常の配信フローが遅れているまたは停止しているために、Firehose ストリームによるソースパーティションからのレコードの読み込みが遅延していることを示します 単位: ブール  | 

## API レベルの CloudWatch メトリクス
<a name="fh-metrics-api-cw"></a>

`AWS/Firehose` 名前空間には、次の API レベルメトリクスが含まれます。


| メトリクス | 説明 | 
| --- | --- | 
| DescribeDeliveryStream.Latency |  指定された期間に測定された `DescribeDeliveryStream` オペレーションごとにかかった時間。 統計: Minimum、Maximum、Average、Samples 単位: ミリ秒  | 
| DescribeDeliveryStream.Requests |  `DescribeDeliveryStream` リクエストの総数。 統計: Minimum、Maximum、Average、Sum、Samples 単位: カウント  | 
| ListDeliveryStreams.Latency |  指定された期間に測定された `ListDeliveryStream` オペレーションごとにかかった時間。 統計: Minimum、Maximum、Average、Samples 単位: ミリ秒  | 
| ListDeliveryStreams.Requests |  `ListFirehose` リクエストの総数。 統計: Minimum、Maximum、Average、Sum、Samples 単位: カウント  | 
| PutRecord.Bytes |  指定された期間に `PutRecord` を使用して Firehose ストリームに送信されたバイト数。 統計: Minimum、Maximum、Average、Sum、Samples 単位: バイト  | 
| PutRecord.Latency |  指定された期間に測定された `PutRecord` オペレーションごとにかかった時間。 統計: Minimum、Maximum、Average、Samples 単位: ミリ秒  | 
| PutRecord.Requests |  `PutRecord` オペレーションのレコード総数に等しい、`PutRecord` リクエストの総数。 統計: Minimum、Maximum、Average、Sum、Samples 単位: カウント  | 
| PutRecordBatch.Bytes |  指定された期間に `PutRecordBatch` を使用して Firehose ストリームに送信されたバイト数。 統計: Minimum、Maximum、Average、Sum、Samples 単位: バイト  | 
| PutRecordBatch.Latency |  指定された期間に測定された `PutRecordBatch` オペレーションごとにかかった時間。 統計: Minimum、Maximum、Average、Samples 単位: ミリ秒  | 
| PutRecordBatch.Records |  `PutRecordBatch` オペレーションのレコード総数。 統計: Minimum、Maximum、Average、Sum、Samples 単位: カウント  | 
| PutRecordBatch.Requests |  `PutRecordBatch` リクエストの総数。 統計: Minimum、Maximum、Average、Sum、Samples 単位: カウント  | 
| PutRequestsPerSecondLimit | Firehose ストリームがスロットリング前に処理できる 1 秒あたりの最大 put リクエスト数。この数には、PutRecord および PutRecordBatch リクエストが含まれます。 統計: Minimum、Maximum、Average、Sum、Samples 単位: カウント | 
| ThrottledDescribeStream |  データソースが Kinesis データストリームである場合に `DescribeStream` オペレーションが調整される合計回数。 統計: Minimum、Maximum、Average、Sum、Samples 単位: カウント  | 
| ThrottledGetRecords |  データソースが Kinesis データストリームである場合に `GetRecords` オペレーションが調整される合計回数。 統計: Minimum、Maximum、Average、Sum、Samples 単位: カウント  | 
| ThrottledGetShardIterator |  データソースが Kinesis データストリームである場合に `GetShardIterator` オペレーションが調整される合計回数。 統計: Minimum、Maximum、Average、Sum、Samples 単位: カウント  | 
| UpdateDeliveryStream.Latency |  指定された期間に測定された `UpdateDeliveryStream` オペレーションごとにかかった時間。 統計: Minimum、Maximum、Average、Samples 単位: ミリ秒  | 
| UpdateDeliveryStream.Requests |  `UpdateDeliveryStream` リクエストの総数。 統計: Minimum、Maximum、Average、Sum、Samples 単位: カウント  | 

## データ変換 CloudWatch メトリクス
<a name="fh-metrics-data-transformation"></a>

Lambda でのデータ変換が有効になっている場合、`AWS/Firehose` 名前空間には、次のメトリクスが含まれます。


| メトリクス | 説明 | 
| --- | --- | 
| ExecuteProcessing.Duration |  Firehose によって実行される各 Lambda 関数の呼び出しにかかる時間。 単位: ミリ秒  | 
| ExecuteProcessing.Success |  Lambda 関数の呼び出しの合計に対する成功した Lambda 関数の呼び出しの合計です。  | 
| SucceedProcessing.Records |  指定された期間に、正常に処理されたレコードの数。 単位: カウント  | 
| SucceedProcessing.Bytes |  指定された期間に、正常に処理されたバイト数。 単位: バイト  | 

## CloudWatch Logs の解凍メトリクス
<a name="decompression-metrics-cw"></a>

CloudWatch Logs 配信のために解凍が有効になっている場合、`AWS/Firehose` 名前空間は次のメトリクスを含みます。


| メトリクス | 説明 | 
| --- | --- | 
| OutputDecompressedBytes.Success |  成功した解凍データ (バイト) 統計: Minimum、Maximum、Average、Sum、Samples 単位: バイト  | 
| OutputDecompressedBytes.Failed |  失敗した解凍データ (バイト) 統計: Minimum、Maximum、Average、Sum、Samples 単位: バイト  | 
| OutputDecompressedRecords.Success |  成功した解凍レコードの数 統計: Minimum、Maximum、Average、Sum、Samples 単位: カウント  | 
| OutputDecompressedRecords.Failed |  失敗した解凍レコードの数 統計: Minimum、Maximum、Average、Sum、Samples 単位: カウント  | 

## 形式変換 CloudWatch メトリクス
<a name="fh-metrics-format-conversion"></a>

形式の変換が有効な場合、`AWS/Firehose` 名前空間には以下のメトリクスが含まれます。


| メトリクス | 説明 | 
| --- | --- | 
| SucceedConversion.Records |  正常に変換されたレコードの数。 単位: カウント  | 
| SucceedConversion.Bytes |  正常に変換されたレコードのサイズ。 単位: バイト  | 
| FailedConversion.Records |  変換できなかったレコードの数。 単位: カウント  | 
| FailedConversion.Bytes |  変換できなかったレコードのサイズ。 単位: バイト  | 

## サーバー側の暗号化 (SSE) CloudWatch のメトリクス
<a name="fh-metrics-sse"></a>

`AWS/Firehose` 名前空間には、SSE に関連する以下のメトリクスが含まれます。


| メトリクス | 説明 | 
| --- | --- | 
| KMSKeyAccessDenied |  サービスが、Firehose ストリームの `KMSAccessDeniedException` を検出した回数。 統計: Minimum、Maximum、Average、Sum、Samples 単位: カウント  | 
| KMSKeyDisabled |  サービスが、Firehose ストリームの `KMSDisabledException` を検出した回数。 統計: Minimum、Maximum、Average、Sum、Samples 単位: カウント  | 
| KMSKeyInvalidState |  サービスが、Firehose ストリームの `KMSInvalidStateException` を検出した回数。 統計: Minimum、Maximum、Average、Sum、Samples 単位: カウント  | 
| KMSKeyNotFound |  サービスが、Firehose ストリームの `KMSNotFoundException` を検出した回数。 統計: Minimum、Maximum、Average、Sum、Samples 単位: カウント  | 

## Amazon Data Firehose のディメンション
<a name="firehose-metric-dimensions"></a>

Firehose ストリームでメトリクスをフィルタするには、`DeliveryStreamName` ディメンションを使用します。

## Amazon Data Firehose の使用状況メトリクス
<a name="fh-metrics-usage"></a>

CloudWatch 使用状況メトリクスを使用して、アカウントのリソースの使用状況を把握できます。これらのメトリクスを使用して、CloudWatch グラフやダッシュボードで現在のサービスの使用状況を可視化できます。

サービスクォータ使用状況メトリクスは、 AWS/Usage 名前空間にあり、3 分ごとに収集されます。

現在、この名前空間で CloudWatch が発行する唯一のメトリクス名は `ResourceCount` です。このメトリクスは、`Service`、`Class`、`Type`、および `Resource` のディメンションで発行されます。


| メトリクス | 説明 | 
| --- | --- | 
| ResourceCount |  アカウントで実行されている指定されたリソースの数。リソースはメトリクスに関連付けられたディメンションによって定義されます。 このメトリクスで最も有用な統計は MAXIMUM です。MAXIMUM は、3 分間に使用されるリソースの最大数を表します。  | 

次のディメンションは、Amazon Data Firehose によって発行される使用状況メトリクスを絞り込むために使用されます。


| ディメンション | 説明 | 
| --- | --- | 
| Service |  リソースを含む AWS サービスの名前。Amazon Data Firehose 使用状況メトリクスの場合、このディメンションの値は `Firehose` です。  | 
| Class |  追跡されているリソースのクラス。Amazon Data Firehose API 使用状況メトリクスでは、値が `None` のこのディメンションを使用します。  | 
| Type |  追跡されるリソースのタイプ。現在、Service ディメンションが `Firehose` である場合、Type の有効な値は `Resource` のみです。  | 
| Resource |   AWS リソースの名前。現在、Service ディメンションが `Firehose` である場合、Resource の有効な値は `DeliveryStreams` のみです。  | 