

기계 번역으로 제공되는 번역입니다. 제공된 번역과 원본 영어의 내용이 상충하는 경우에는 영어 버전이 우선합니다.

# CloudWatch 지표를 사용하여 Amazon Data Firehose 모니터링
<a name="monitoring-with-cloudwatch-metrics"></a>

**중요**  
오류를 빠르게 식별하려면 대상에 속하는 모든 CloudWatch 지표에 대한 알람을 활성화해야 합니다.

Amazon Data Firehose는 Amazon CloudWatch 지표와 통합되므로 Firehose 스트림에 대한 CloudWatch 지표를 수집, 확인, 분석할 수 있습니다. 예를 들어 `IncomingBytes` 및 `IncomingRecords` 지표를 모니터링하여 데이터 생산자로부터 Amazon Data Firehose로 수집된 데이터를 추적할 수 있습니다.

Amazon Data Firehose는 1분마다 CloudWatch 지표를 수집하여 게시합니다. 단, 몇 초 동안만이라도 수신 데이터 장애가 발생하면 1분 지표에 완전히 캡처또는 표시되지 않을 수 있습니다. 그 이유는 CloudWatch 지표가 Amazon Data Firehose에서 1분 간격으로 집계되기 때문입니다.

Firehose 스트림에 대해 수집된 지표는 무료로 제공됩니다. Kinesis 에이전트 지표에 대한 정보는 [Kinesis 에이전트 상태 모니터링](agent-health.md)을 참조하세요.

**Topics**
+ [

## 동적 파티셔닝용 CloudWatch 지표
](#dp-metrics-cw)
+ [

## 데이터 전송에 대한 CloudWatch 지표
](#fh-metrics-cw)
+ [

## 데이터 수집 지표
](#fh-ingestion-metrics)
+ [

## API 수준 CloudWatch 지표
](#fh-metrics-api-cw)
+ [

## 데이터 변환 CloudWatch 지표
](#fh-metrics-data-transformation)
+ [

## CloudWatch Logs 압축 해제 지표
](#decompression-metrics-cw)
+ [

## 형식 변환 CloudWatch 지표
](#fh-metrics-format-conversion)
+ [

## 서버 측 암호화(SSE) CloudWatch 지표
](#fh-metrics-sse)
+ [

## Amazon Data Firehose의 측정기준
](#firehose-metric-dimensions)
+ [

## Amazon Data Firehose 사용 지표
](#fh-metrics-usage)

## 동적 파티셔닝용 CloudWatch 지표
<a name="dp-metrics-cw"></a>

[동적 파티셔닝](dynamic-partitioning.md)이 활성화된 경우 AWS/Firehose 네임스페이스에는 다음 지표가 포함됩니다.


| 지표 | 설명 | 
| --- | --- | 
| ActivePartitionsLimit |  Firehose 스트림이 오류 버킷으로 데이터를 전송하기 전에 처리하는 최대 활성 파티션 수. 통계: Minimum, Maximum, Average, Sum, Samples 단위: 개  | 
| PartitionCount |  처리 중인 파티션 수, 즉 활성 파티션의 수. 이 수는 1부터 파티션 카운트 한도인 500(기본값)까지 다양합니다. 통계: Minimum, Maximum, Average, Sum, Samples 단위: 개  | 
| PartitionCountExceeded |  이 지표는 파티션 카운트 한도를 초과하는지 여부를 나타냅니다. 한도 위반 여부에 따라 1 또는 0이 출력됩니다.  | 
| JQProcessing.Duration |  JQ Lambda 함수에서 JQ 표현식을 실행하는 데 걸린 시간의 양을 반환합니다. 단위: 밀리초  | 
| PerPartitionThroughput |  파티션별로 처리되는 처리량을 표시합니다. 이 지표를 사용하여 파티션별 처리량을 모니터링할 수 있습니다. 단위: StandardUnit.BytesSecond  | 
| DeliveryToS3.ObjectCount |  S3 버킷으로 전송되는 객체의 수를 나타냅니다. 통계: Minimum, Maximum, Average, Sum, Samples 단위: 개  | 

## 데이터 전송에 대한 CloudWatch 지표
<a name="fh-metrics-cw"></a>

`AWS/Firehose` 네임스페이스에는 다음과 같은 서비스 수준 지표가 포함되어 있습니다. `BackupToS3.Success`, `DeliveryToS3.Success`, `DeliveryToSplunk.Success`, `DeliveryToAmazonOpenSearchService.Success` 또는 `DeliveryToRedshift.Success`의 평균이 약간 떨어진다고 해서 데이터 손실이 발생했다는 의미는 아닙니다. Amazon Data Firehose는 전송 오류를 재시도하고 레코드가 구성된 대상 또는 백업 S3 버킷으로 전송이 이루어질 때까지 작업을 진행하지 않습니다.

**Topics**
+ [

### OpenSearch Service로 전송
](#fh-es-metrics)
+ [

### OpenSearch Serverless로 전송
](#fh-serverless-metrics)
+ [

### Amazon Redshift로 전송
](#fh-redshift-metrics)
+ [

### Amazon S3으로 전송
](#fh-s3-metrics)
+ [

### Snowflake로 전송
](#fh-snowflake-metrics)
+ [

### Splunk에 전송
](#fh-splunk-metrics)
+ [

### HTTP 엔드포인트로 전송
](#fh-http-metrics)

### OpenSearch Service로 전송
<a name="fh-es-metrics"></a>


| 지표 | 설명 | 
| --- | --- | 
| DeliveryToAmazonOpenSearchService.Bytes |  지정된 기간 동안 OpenSearch Service로 인덱싱된 바이트 수. 통계: Minimum, Maximum, Average, Sum, Samples 단위: 바이트  | 
| DeliveryToAmazonOpenSearchService.DataFreshness |  Amazon Data Firehose에서 가장 오래된 레코드의 연식(Amazon Data Firehose에 입력된 시점부터 현재까지). 이 경과 시간보다 오래된 레코드는 모두 OpenSearch Service에 전송되었습니다. 통계: Minimum, Maximum, Average, Sum, Samples 단위: 초  | 
| DeliveryToAmazonOpenSearchService.Records |  지정된 기간 동안 OpenSearch Service로 인덱싱된 레코드 수. 통계: Minimum, Maximum, Average, Sum, Samples 단위: 개  | 
| DeliveryToAmazonOpenSearchService.Success |  성공적으로 인덱싱된 레코드의 합계입니다.  | 
| DeliveryToS3.Bytes |  지정한 시간 동안 Amazon S3로 전송된 바이트 수. Amazon Data Firehose는 모든 문서에 대한 백업을 활성화한 경우에만 이 지표를 내보냅니다. 통계: Minimum, Maximum, Average, Sum, Samples 단위: 개  | 
| DeliveryToS3.DataFreshness |  Amazon Data Firehose에서 가장 오래된 레코드의 연식(Amazon Data Firehose에 입력된 시점부터 현재까지). 이 경과 시간보다 오래된 레코드는 모두 S3 버킷으로 전송되었습니다. Amazon Data Firehose는 모든 문서에 대한 백업을 활성화한 경우에만 이 지표를 내보냅니다. 단위: 초  | 
| DeliveryToS3.Records |  지정한 시간 동안 Amazon S3로 전송된 레코드 수. Amazon Data Firehose는 모든 문서에 대한 백업을 활성화한 경우에만 이 지표를 내보냅니다. 통계: Minimum, Maximum, Average, Sum, Samples 단위: 개  | 
| DeliveryToS3.Success |  성공적인 Amazon S3 풋 명령의 합계입니다. Amazon Data Firehose는 백업이 실패한 문서에만 사용되는지 아니면 모든 문서에 사용되는지에 관계없이 항상 이 지표를 내보냅니다.  | 
| DeliveryToAmazonOpenSearchService.AuthFailure |  인증 및 권한 부여 오류. OS/ES 클러스터 정책 및 역할 권한을 확인합니다. 0은 문제 없음을 나타내며 1은 인증 실패를 나타냅니다.  | 
| DeliveryToAmazonOpenSearchService.DeliveryRejected |  전송 거부 오류. OS/ES 클러스터 정책 및 역할 권한을 확인합니다. 0은 문제 없음을 나타내며 1은 전송 실패를 나타냅니다.  | 

### OpenSearch Serverless로 전송
<a name="fh-serverless-metrics"></a>


| 지표 | 설명 | 
| --- | --- | 
| DeliveryToAmazonOpenSearchServerless.Bytes |  지정된 기간 동안 OpenSearch Serverless로 인덱싱된 바이트 수. 통계: Minimum, Maximum, Average, Sum, Samples 단위: 바이트  | 
| DeliveryToAmazonOpenSearchServerless.DataFreshness |  Amazon Data Firehose에서 가장 오래된 레코드의 연식(Amazon Data Firehose에 입력된 시점부터 현재까지). 이 경과 시간보다 오래된 레코드는 모두 OpenSearch Serverless에 전송되었습니다. 단위: 초  | 
| DeliveryToAmazonOpenSearchServerless.Records |  지정된 기간 동안 OpenSearch Serverless로 인덱싱된 레코드 수. 통계: Minimum, Maximum, Average, Sum, Samples 단위: 개  | 
| DeliveryToAmazonOpenSearchServerless.Success |  성공적으로 인덱싱된 레코드의 합계입니다.  | 
| DeliveryToS3.Bytes |  지정한 시간 동안 Amazon S3로 전송된 바이트 수. Amazon Data Firehose는 모든 문서에 대한 백업을 활성화한 경우에만 이 지표를 내보냅니다. 통계: Minimum, Maximum, Average, Sum, Samples 단위: 개  | 
| DeliveryToS3.DataFreshness |  Amazon Data Firehose에서 가장 오래된 레코드의 연식(Amazon Data Firehose에 입력된 시점부터 현재까지). 이 경과 시간보다 오래된 레코드는 모두 S3 버킷으로 전송되었습니다. Amazon Data Firehose는 모든 문서에 대한 백업을 활성화한 경우에만 이 지표를 내보냅니다. 단위: 초  | 
| DeliveryToS3.Records |  지정한 시간 동안 Amazon S3로 전송된 레코드 수. Amazon Data Firehose는 모든 문서에 대한 백업을 활성화한 경우에만 이 지표를 내보냅니다. 단위: 개  | 
| DeliveryToS3.Success |  성공적인 Amazon S3 풋 명령의 합계입니다. Amazon Data Firehose는 백업이 실패한 문서에만 사용되는지 아니면 모든 문서에 사용되는지에 관계없이 항상 이 지표를 내보냅니다.  | 
| DeliveryToAmazonOpenSearchServerless.AuthFailure |  인증 및 권한 부여 오류. OS/ES 클러스터 정책 및 역할 권한을 확인합니다. 0은 문제 없음을 나타내며 1은 인증 실패를 나타냅니다.  | 
| DeliveryToAmazonOpenSearchServerless.DeliveryRejected |  전송 거부 오류. OS/ES 클러스터 정책 및 역할 권한을 확인합니다. 0은 문제 없음을 나타내며 1은 전송 실패를 나타냅니다.  | 

### Amazon Redshift로 전송
<a name="fh-redshift-metrics"></a>


| 지표 | 설명 | 
| --- | --- | 
| DeliveryToRedshift.Bytes |  지정한 시간 동안 Amazon Redshift으로 복사된 바이트 수. 통계: Minimum, Maximum, Average, Sum, Samples 단위: 개  | 
| DeliveryToRedshift.Records |  지정한 시간 동안 Amazon Redshift으로 복사된 레코드 수. 통계: Minimum, Maximum, Average, Sum, Samples 단위: 개  | 
| DeliveryToRedshift.Success |  성공한 Amazon Redshift COPY 명령의 합계입니다.  | 
| DeliveryToS3.Bytes |  지정한 시간 동안 Amazon S3로 전송된 바이트 수. 통계: Minimum, Maximum, Average, Sum, Samples 단위: 바이트  | 
| DeliveryToS3.DataFreshness |  Amazon Data Firehose에서 가장 오래된 레코드의 연식(Amazon Data Firehose에 입력된 시점부터 현재까지). 이 경과 시간보다 오래된 레코드는 모두 S3 버킷으로 전송됩니다. 단위: 초  | 
| DeliveryToS3.Records |  지정한 시간 동안 Amazon S3로 전송된 레코드 수. 통계: Minimum, Maximum, Average, Sum, Samples 단위: 개  | 
| DeliveryToS3.Success |  성공적인 Amazon S3 풋 명령의 합계입니다.  | 
| DeliveryToRedshift.DataFreshness |  Amazon Data Firehose에서 가장 오래된 레코드의 연식(Amazon Data Firehose에 입력된 시점부터 현재까지). 이 기간보다 오래된 모든 레코드는 Amazon Redshift 클러스터로 전달됩니다.  | 
| BackupToS3.Bytes |  지정한 시간 동안 백업을 위해 Amazon S3로 전송된 바이트 수. Amazon S3에 대한 백업이 활성화된 경우 Amazon Data Firehose는 이 지표를 내보냅니다. 통계: Minimum, Maximum, Average, Sum, Samples 단위: 개  | 
| BackupToS3.DataFreshness |  Amazon Data Firehose에서 가장 오래된 레코드의 연식(Amazon Data Firehose에 입력된 시점부터 현재까지). 이 경과 시간보다 오래된 레코드는 모두 백업을 위해 Amazon S3 버킷으로 전송되었습니다. Amazon S3에 대한 백업이 활성화된 경우 Amazon Data Firehose는 이 지표를 내보냅니다. 통계: Minimum, Maximum, Average, Samples 단위: 초  | 
| BackupToS3.Records |  지정한 시간 동안 백업을 위해 Amazon S3로 전송된 레코드 수. Amazon S3에 대한 백업이 활성화된 경우 Amazon Data Firehose는 이 지표를 내보냅니다. 통계: Minimum, Maximum, Average, Sum, Samples 단위: 개  | 
| BackupToS3.Success |  백업을 위한 성공적인 Amazon S3 풋 명령의 합계입니다. Amazon S3에 대한 백업이 활성화된 경우 Amazon Data Firehose는 이 지표를 내보냅니다.  | 

### Amazon S3으로 전송
<a name="fh-s3-metrics"></a>

다음 표의 지표는 Firehose 스트림의 주요 대상인 Amazon S3로의 전송과 관련이 있습니다.


| 지표 | 설명 | 
| --- | --- | 
| DeliveryToS3.Bytes |  지정한 시간 동안 Amazon S3로 전송된 바이트 수. 데이터 변환이 활성화되면이 지표는 변환 전 사전 처리된 바이트 크기를 반영합니다. 통계: Minimum, Maximum, Average, Sum, Samples 단위: 바이트  | 
| DeliveryToS3.DataFreshness |  Amazon Data Firehose에서 가장 오래된 레코드의 연식(Amazon Data Firehose에 입력된 시점부터 현재까지). 이 경과 시간보다 오래된 레코드는 모두 S3 버킷으로 전송되었습니다. 통계: Minimum, Maximum, Average, Samples 단위: 초  | 
| DeliveryToS3.Records |  지정한 시간 동안 Amazon S3로 전송된 레코드 수. 통계: Minimum, Maximum, Average, Sum, Samples 단위: 개  | 
| DeliveryToS3.Success |  성공적인 Amazon S3 풋 명령의 합계입니다.  | 
| BackupToS3.Bytes |  지정한 시간 동안 백업을 위해 Amazon S3로 전송된 바이트 수. Amazon Data Firehose는 백업이 활성화된 경우 이 지표를 생성합니다(데이터 변환까지 활성화된 경우에만 가능). 통계: Minimum, Maximum, Average, Sum, Samples 단위: 개  | 
| BackupToS3.DataFreshness |  Amazon Data Firehose에서 가장 오래된 레코드의 연식(Amazon Data Firehose에 입력된 시점부터 현재까지). 이 경과 시간보다 오래된 레코드는 모두 백업을 위해 Amazon S3 버킷으로 전송되었습니다. Amazon Data Firehose는 백업이 활성화된 경우 이 지표를 생성합니다(데이터 변환까지 활성화된 경우에만 가능). 통계: Minimum, Maximum, Average, Samples 단위: 초  | 
| BackupToS3.Records |  지정한 시간 동안 백업을 위해 Amazon S3로 전송된 레코드 수. Amazon Data Firehose는 백업이 활성화된 경우 이 지표를 생성합니다(데이터 변환까지 활성화된 경우에만 가능). 통계: Minimum, Maximum, Average, Sum, Samples 단위: 개  | 
| BackupToS3.Success |  백업을 위한 성공적인 Amazon S3 풋 명령의 합계입니다. Amazon Data Firehose는 백업이 활성화된 경우 이 지표를 생성합니다(데이터 변환까지 활성화된 경우에만 가능).  | 

### Snowflake로 전송
<a name="fh-snowflake-metrics"></a>


| 지표 | 설명 | 
| --- | --- | 
| DeliveryToSnowflake.Bytes |  지정한 시간 동안 Snowflake로 전송된 바이트 수 통계: Minimum, Maximum, Average, Sum, Samples 단위: 바이트  | 
| DeliveryToSnowflake.DataFreshness |  Firehose에서 가장 오래된 레코드의 경과 시간(Firehose에 입력된 시점부터 현재까지)입니다. 이 경과 시간보다 오래된 레코드는 모두 Snowflake에 전송되었습니다. Firehose 삽입 호출이 성공한 후 Snowflake에 데이터를 커밋하는 데 몇 초가 걸릴 수 있습니다. Snowflake에 데이터를 커밋하는 데 걸리는 시간은 `DeliveryToSnowflake.DataCommitLatency` 지표를 참조하세요. 통계: Minimum, Maximum, Average, Samples 단위: 초  | 
| DeliveryToSnowflake.DataCommitLatency | Firehose가 레코드를 성공적으로 삽입한 후 데이터가 Snowflake에 커밋되는 데 걸리는 시간입니다.통계: Minimum, Maximum, Average, Samples 단위: 초 | 
| DeliveryToSnowflake.Records |  지정한 시간 동안 Snowflake로 전송된 레코드 수  통계: Minimum, Maximum, Average, Sum, Samples 단위: 개  | 
| DeliveryToSnowflake.Success | Snowflake에 수행된 성공적인 삽입 호출의 합계입니다. | 
| DeliveryToS3.Bytes | 지정한 시간 동안 Amazon S3로 전송된 바이트 수. 이 지표는 Snowflake로의 전송이 실패하고 Firehose가 실패한 데이터를 S3로 백업하려고 시도하는 경우에만 사용할 수 있습니다.통계: Minimum, Maximum, Average, Sum, Samples 단위: 바이트 | 
| DeliveryToS3.Records | 지정한 시간 동안 Amazon S3로 전송된 레코드 수. 이 지표는 Snowflake로의 전송이 실패하고 Firehose가 실패한 데이터를 S3로 백업하려고 시도하는 경우에만 사용할 수 있습니다.통계: Minimum, Maximum, Average, Sum, Samples 단위: 개 | 
| DeliveryToS3.Success | 성공적인 Amazon S3 풋 명령의 합계입니다. 이 지표는 Snowflake로의 전송이 실패하고 Firehose가 실패한 데이터를 S3로 백업하려고 시도하는 경우에만 사용할 수 있습니다. | 
| BackupToS3.DataFreshness | Firehose에서 가장 오래된 레코드의 경과 시간(Firehose에 입력된 시점부터 현재까지)입니다. 이 시간보다 오래된 레코드는 Amazon S3 버킷에 백업됩니다. 이 지표는 Firehose 스트림이 모든 데이터를 백업하도록 구성된 경우 사용할 수 있습니다.통계: Minimum, Maximum, Average, Samples 단위: 초 | 
| BackupToS3.Records | 지정한 시간 동안 백업을 위해 Amazon S3로 전송된 레코드 수. 이 지표는 Firehose 스트림이 모든 데이터를 백업하도록 구성된 경우 사용할 수 있습니다.통계: Minimum, Maximum, Average, Sum, Samples 단위:개수 | 
| BackupToS3.Bytes | 지정한 시간 동안 백업을 위해 Amazon S3로 전송된 바이트 수. 이 지표는 Firehose 스트림이 모든 데이터를 백업하도록 구성된 경우 사용할 수 있습니다.통계: Minimum, Maximum, Average, Sum, Samples 단위:개수 | 
| BackupToS3.Success | 백업을 위한 성공적인 Amazon S3 풋 명령의 합계입니다. Firehose 스트림이 모든 데이터를 백업하도록 구성될 때 Firehose는 이 지표를 생략합니다. | 

### Splunk에 전송
<a name="fh-splunk-metrics"></a>


| 지표 | 설명 | 
| --- | --- | 
| DeliveryToSplunk.Bytes |  지정한 시간 동안 Splunk로 전송된 바이트 수. 통계: Minimum, Maximum, Average, Sum, Samples 단위: 바이트  | 
| DeliveryToSplunk.DataAckLatency |  Amazon Data Firehose에서 데이터를 전송한 후 Splunk로부터 승인을 수신하기까지 걸리는 대략적인 시간입니다. 이 측정치에 대한 증가 또는 감소 추세가 절대 근사치보다 더 유용합니다. 증가 추세는 Splunk 인덱서로부터 더 느린 인덱싱 및 승인 비율을 나타낼 수 있습니다. 통계: Minimum, Maximum, Average, Samples 단위: 초  | 
| DeliveryToSplunk.DataFreshness |  Amazon Data Firehose에서 가장 오래된 레코드의 연식(Amazon Data Firehose에 입력된 시점부터 현재까지). 이 경과 시간보다 오래된 레코드는 모두 Splunk로 전송되었습니다. 통계: Minimum, Maximum, Average, Samples 단위: 초  | 
| DeliveryToSplunk.Records |  지정한 시간 동안 Splunk로 전송된 레코드 수. 통계: Minimum, Maximum, Average, Sum, Samples 단위: 개  | 
| DeliveryToSplunk.Success |  성공적으로 인덱싱된 레코드의 합계입니다.  | 
| DeliveryToS3.Success |  성공적인 Amazon S3 풋 명령의 합계입니다. 이 지표는 Amazon S3으로의 백업이 활성화된 경우 내보내집니다.  | 
| BackupToS3.Bytes |  지정한 시간 동안 백업을 위해 Amazon S3로 전송된 바이트 수. Firehose 스트림이 모든 문서를 백업하도록 구성된 경우 Amazon Data Firehose는 이 지표를 내보냅니다. 통계: Minimum, Maximum, Average, Sum, Samples 단위: 개  | 
| BackupToS3.DataFreshness |  Amazon Data Firehose에서 가장 오래된 레코드의 연식(Amazon Data Firehose에 입력된 시점부터 현재까지). 이 경과 시간보다 오래된 레코드는 모두 백업을 위해 Amazon S3 버킷으로 전송되었습니다. Firehose 스트림이 모든 문서를 백업하도록 구성된 경우 Amazon Data Firehose는 이 지표를 내보냅니다. 통계: Minimum, Maximum, Average, Samples 단위: 초  | 
| BackupToS3.Records |  지정한 시간 동안 백업을 위해 Amazon S3로 전송된 레코드 수. Firehose 스트림이 모든 문서를 백업하도록 구성된 경우 Amazon Data Firehose는 이 지표를 내보냅니다. 통계: Minimum, Maximum, Average, Sum, Samples 단위: 개  | 
| BackupToS3.Success |  백업을 위한 성공적인 Amazon S3 풋 명령의 합계입니다. Firehose 스트림이 모든 문서를 백업하도록 구성된 경우 Amazon Data Firehose는 이 지표를 내보냅니다.  | 

### HTTP 엔드포인트로 전송
<a name="fh-http-metrics"></a>


| 지표 | 설명 | 
| --- | --- | 
| DeliveryToHttpEndpoint.Bytes |  HTTP 엔드포인트에 성공적으로 전송된 바이트 수. 통계: Minimum, Maximum, Average, Sum, Samples 단위: 바이트  | 
| DeliveryToHttpEndpoint.Records |  HTTP 엔드포인트에 성공적으로 전송된 레코드 수. 이 지표는 전송 시도가 성공한 경우에만 내보내지며 전송 시도가 실패할 때는 내보내지지 않습니다. 통계: Minimum, Maximum, Average, Sum, Samples 단위: 개수  | 
| DeliveryToHttpEndpoint.DataFreshness |  Amazon Data Firehose에서 가장 오래된 레코드의 연식. 통계: Minimum, Maximum, Average, Samples 단위: 초  | 
| DeliveryToHttpEndpoint.Success |  전송 시도당 HTTP 엔드포인트로 성공적으로 전송된 레코드 수입니다. 와 달리 `DeliveryToHttpEndpoint.Records`이 지표는 모든 전송 시도에 대해 내보내집니다. 성공 시 값은 전송 시도의 레코드 수와 같습니다. 전송 시도에서 모든 레코드가 실패하면 값은 0입니다. 최소 통계를 사용하여 전송 실패를 모니터링합니다. 통계: Minimum, Maximum, Average, Sum, Samples 단위: 개  | 
| DeliveryToHttpEndpoint.ProcessedBytes |  재시도를 포함하여 처리 시도된 바이트 수.  | 
| DeliveryToHttpEndpoint.ProcessedRecords |  재시도를 포함하여 시도된 레코드 수.  | 

## 데이터 수집 지표
<a name="fh-ingestion-metrics"></a>

**Topics**
+ [

### Kinesis Data Streams를 통한 데이터 통합
](#fh-ingestion-kds-metrics)
+ [

### Direct PUT을 통한 데이터 수집
](#fh-ingestion-directput-metrics)
+ [

### MSK에서 데이터 통합
](#fh-ingestion-msk-metrics)

### Kinesis Data Streams를 통한 데이터 통합
<a name="fh-ingestion-kds-metrics"></a>


| 지표 | 설명 | 
| --- | --- | 
| DataReadFromKinesisStream.Bytes |  데이터 원본이 Kinesis 데이터 스트림인 경우 이 지표는 해당 데이터 스트림에서 읽은 바이트 수를 나타냅니다. 이 수는 장애 조치로 인한 다시 읽기를 포함합니다. 통계: Minimum, Maximum, Average, Sum, Samples 단위: 바이트  | 
| DataReadFromKinesisStream.Records |  데이터 원본이 Kinesis 데이터 스트림인 경우 이 지표는 해당 데이터 스트림에서 읽은 레코드 수를 나타냅니다. 이 수는 장애 조치로 인한 다시 읽기를 포함합니다. 통계: Minimum, Maximum, Average, Sum, Samples 단위: 개  | 
| ThrottledDescribeStream |  데이터 원본이 Kinesis 데이터 스트림일 때 `DescribeStream` 작업에서 병목 현상이 일어나는 총 횟수 통계: Minimum, Maximum, Average, Sum, Samples 단위: 개  | 
| ThrottledGetRecords |  데이터 원본이 Kinesis 데이터 스트림일 때 `GetRecords` 작업에서 병목 현상이 일어나는 총 횟수 통계: Minimum, Maximum, Average, Sum, Samples 단위: 개  | 
| ThrottledGetShardIterator |  데이터 원본이 Kinesis 데이터 스트림일 때 `GetShardIterator` 작업에서 병목 현상이 일어나는 총 횟수 통계: Minimum, Maximum, Average, Sum, Samples 단위: 개  | 
| KinesisMillisBehindLatest |  데이터 원본이 Kinesis 데이터 스트림일 때, 이 지표는 마지막으로 읽은 레코드가 Kinesis 데이터 스트림의 최신 레코드보다 뒤쳐진 밀리초 수를 의미합니다. 통계: Minimum, Maximum, Average, Samples 단위: 밀리초  | 

### Direct PUT을 통한 데이터 수집
<a name="fh-ingestion-directput-metrics"></a>


| 지표 | 설명 | 
| --- | --- | 
| BackupToS3.Bytes |  지정한 시간 동안 백업을 위해 Amazon S3로 전송된 바이트 수. Amazon Data Firehose는 Amazon S3 또는 Amazon Redshift 대상에 데이터 변환이 활성화된 경우 이 지표를 내보냅니다. 통계: Minimum, Maximum, Average, Sum, Samples 단위: 바이트  | 
| BackupToS3.DataFreshness |  Amazon Data Firehose에서 가장 오래된 레코드의 연식(Amazon Data Firehose에 입력된 시점부터 현재까지). 이 경과 시간보다 오래된 레코드는 모두 백업을 위해 Amazon S3 버킷으로 전송되었습니다. Amazon Data Firehose는 Amazon S3 또는 Amazon Redshift 대상에 데이터 변환이 활성화된 경우 이 지표를 내보냅니다. 통계: Minimum, Maximum, Average, Samples 단위: 초  | 
| BackupToS3.Records |  지정한 시간 동안 백업을 위해 Amazon S3로 전송된 레코드 수. Amazon Data Firehose는 Amazon S3 또는 Amazon Redshift 대상에 데이터 변환이 활성화된 경우 이 지표를 내보냅니다. 통계: Minimum, Maximum, Average, Sum, Samples 단위: 개  | 
| BackupToS3.Success |  백업을 위한 성공적인 Amazon S3 풋 명령의 합계입니다. Amazon Data Firehose는 Amazon S3 또는 Amazon Redshift 대상에 데이터 변환이 활성화된 경우 이 지표를 내보냅니다.  | 
| BytesPerSecondLimit | 조절 전에 Firehose 스트림이 수집할 수 있는 현재 초당 최대 바이트 수입니다. 이 한도 증가를 요청하려면 [AWS Support Center](https://console.aws.amazon.com/support/home)에서 사례 생성을 선택한 다음 서비스 한도 증가를 선택합니다. | 
| DeliveryToAmazonOpenSearchService.Bytes |  지정된 기간 동안 OpenSearch Service로 인덱싱된 바이트 수. 통계: Minimum, Maximum, Average, Sum, Samples 단위: 바이트  | 
| DeliveryToAmazonOpenSearchService.DataFreshness |  Amazon Data Firehose에서 가장 오래된 레코드의 연식(Amazon Data Firehose에 입력된 시점부터 현재까지). 이 경과 시간보다 오래된 레코드는 모두 OpenSearch Service에 전송되었습니다. 통계: Minimum, Maximum, Average, Samples 단위: 초  | 
| DeliveryToAmazonOpenSearchService.Records |  지정된 기간 동안 OpenSearch Service로 인덱싱된 레코드 수. 통계: Minimum, Maximum, Average, Sum, Samples 단위: 개  | 
| DeliveryToAmazonOpenSearchService.Success |  성공적으로 인덱싱된 레코드의 합계입니다.  | 
| DeliveryToRedshift.Bytes |  지정한 시간 동안 Amazon Redshift으로 복사된 바이트 수. 통계: Minimum, Maximum, Average, Sum, Samples 단위: 바이트  | 
| DeliveryToRedshift.Records |  지정한 시간 동안 Amazon Redshift으로 복사된 레코드 수. 통계: Minimum, Maximum, Average, Sum, Samples 단위: 개  | 
| DeliveryToRedshift.Success |  성공한 Amazon Redshift COPY 명령의 합계입니다.  | 
| DeliveryToS3.Bytes |  지정한 시간 동안 Amazon S3로 전송된 바이트 수. 통계: Minimum, Maximum, Average, Sum, Samples 단위: 바이트  | 
| DeliveryToS3.DataFreshness |  Amazon Data Firehose에서 가장 오래된 레코드의 연식(Amazon Data Firehose에 입력된 시점부터 현재까지). 이 경과 시간보다 오래된 레코드는 모두 S3 버킷으로 전송되었습니다. 통계: Minimum, Maximum, Average, Samples 단위: 초  | 
| DeliveryToS3.Records |  지정한 시간 동안 Amazon S3로 전송된 레코드 수. 통계: Minimum, Maximum, Average, Sum, Samples 단위: 개  | 
| DeliveryToS3.Success |  성공적인 Amazon S3 풋 명령의 합계입니다.  | 
| DeliveryToSplunk.Bytes |  지정한 시간 동안 Splunk로 전송된 바이트 수. 통계: Minimum, Maximum, Average, Sum, Samples 단위: 바이트  | 
| DeliveryToSplunk.DataAckLatency |  Amazon Data Firehose에서 데이터를 전송한 후 Splunk로부터 승인을 수신하기까지 걸리는 대략적인 시간입니다. 이 측정치에 대한 증가 또는 감소 추세가 절대 근사치보다 더 유용합니다. 증가 추세는 Splunk 인덱서로부터 더 느린 인덱싱 및 승인 비율을 나타낼 수 있습니다. 통계: Minimum, Maximum, Average, Samples 단위: 초  | 
| DeliveryToSplunk.DataFreshness |  Amazon Data Firehose에서 가장 오래된 레코드의 연식(Amazon Data Firehose에 입력된 시점부터 현재까지). 이 경과 시간보다 오래된 레코드는 모두 Splunk로 전송되었습니다. 통계: Minimum, Maximum, Average, Samples 단위: 초  | 
| DeliveryToSplunk.Records |  지정한 시간 동안 Splunk로 전송된 레코드 수. 통계: Minimum, Maximum, Average, Sum, Samples 단위: 개  | 
| DeliveryToSplunk.Success |  성공적으로 인덱싱된 레코드의 합계입니다.  | 
| IncomingBytes |  지정된 기간 동안 Firehose 스트림에 성공적으로 수집된 바이트 수. Firehose 스트림 한도 중 하나라도 초과하면 데이터 수집이 제한될 수 있습니다. 제한된 데이터는 `IncomingBytes`에 계산되지 않습니다. 통계: Minimum, Maximum, Average, Sum, Samples 단위: 바이트  | 
| IncomingPutRequests | 지정된 기간 동안 성공한 PutRecord 및 PutRecordBatch 요청 수. 통계: Minimum, Maximum, Average, Sum, Samples 단위: 개 | 
| IncomingRecords |  지정된 기간 동안 Firehose 스트림에 성공적으로 수집된 레코드 수. Firehose 스트림 한도 중 하나라도 초과하면 데이터 수집이 제한될 수 있습니다. 제한된 데이터는 `IncomingRecords`에 계산되지 않습니다. 통계: Minimum, Maximum, Average, Sum, Samples 단위: 개  | 
| RecordsPerSecondLimit | 조절 전에 Firehose 스트림이 수집할 수 있는 현재 초당 최대 레코드 수입니다. 통계: Minimum, Maximum, Average, Sum, Samples 단위: 개 | 
| ThrottledRecords | 데이터 수집이 Firehose 스트림 제한 중 하나를 초과했기 때문에 조절된 레코드 수입니다. 통계: Minimum, Maximum, Average, Sum, Samples 단위: 개 | 

### MSK에서 데이터 통합
<a name="fh-ingestion-msk-metrics"></a>


| 지표 | 설명 | 
| --- | --- | 
|  DataReadFromSource.Records  |  소스 Kafka 주제에서 읽은 레코드 수. 통계: Minimum, Maximum, Average, Sum, Samples 단위: 개  | 
|  DataReadFromSource.Bytes  |  소스 Kafka 주제에서 읽은 바이트 수. 통계: Minimum, Maximum, Average, Sum, Samples 단위: 바이트  | 
|  SourceThrottled.Delay  |  소스 Kafka 클러스터가 소스 Kafka 주제의 레코드를 반환하는 데 지연된 시간. 통계: Minimum, Maximum, Average, Samples 단위: 밀리초  | 
|  BytesPerSecondLimit  |  Firehose가 소스 Kafka 주제의 각 파티션에서 읽을 수 있는 처리량의 현재 한도. 통계: Minimum, Maximum, Average, Sum, Samples 단위: 바이트/초  | 
|  KafkaOffsetLag  |  Firehose가 소스 Kafka 주제에서 읽은 레코드의 최대 오프셋과 소스 Kafka 주제에서 사용할 수 있는 레코드의 최대 오프셋 간의 차이. 통계: Minimum, Maximum, Average, Sum, Samples 단위: 개  | 
|  FailedValidation.Records  |  레코드 검증에 실패한 레코드 수. 통계: Minimum, Maximum, Average, Sum, Samples 단위: 개  | 
|  FailedValidation.Bytes  |  레코드 검증에 실패한 바이트 수. 통계: Minimum, Maximum, Average, Sum, Samples 단위: 바이트  | 
|  DataReadFromSource.Backpressured  |  파티션당 BytesPersecdLimit가 초과되었거나 정상적인 전송 흐름의 느린 속도 또는 중지로 인해 Firehose 스트림이 소스 파티션에서 레코드를 읽는 데 지연이 발생했음을 나타냅니다. 단위: 부울  | 

## API 수준 CloudWatch 지표
<a name="fh-metrics-api-cw"></a>

`AWS/Firehose` 네임스페이스에는 다음과 같은 API 수준 지표가 포함되어 있습니다.


| 지표 | 설명 | 
| --- | --- | 
| DescribeDeliveryStream.Latency |  `DescribeDeliveryStream` 작업 1건당 지정한 시간 동안 측정된 소요 시간 통계: Minimum, Maximum, Average, Samples 단위: 밀리초  | 
| DescribeDeliveryStream.Requests |  `DescribeDeliveryStream` 요청 총 수 통계: Minimum, Maximum, Average, Sum, Samples 단위: 개  | 
| ListDeliveryStreams.Latency |  `ListDeliveryStream` 작업 1건당 지정한 시간 동안 측정된 소요 시간 통계: Minimum, Maximum, Average, Samples 단위: 밀리초  | 
| ListDeliveryStreams.Requests |  `ListFirehose` 요청 총 수 통계: Minimum, Maximum, Average, Sum, Samples 단위: 개  | 
| PutRecord.Bytes |  지정한 시간 동안 `PutRecord`를 사용하여 Firehose 스트림에 입력된 바이트 수. 통계: Minimum, Maximum, Average, Sum, Samples 단위: 바이트  | 
| PutRecord.Latency |  `PutRecord` 작업 1건당 지정한 시간 동안 측정된 소요 시간 통계: Minimum, Maximum, Average, Samples 단위: 밀리초  | 
| PutRecord.Requests |  `PutRecord` 요청 총 수로서 `PutRecord` 작업의 총 레코드 수와 동일함 통계: Minimum, Maximum, Average, Sum, Samples 단위: 개  | 
| PutRecordBatch.Bytes |  지정한 시간 동안 `PutRecordBatch`를 사용하여 Firehose 스트림에 입력된 바이트 수. 통계: Minimum, Maximum, Average, Sum, Samples 단위: 바이트  | 
| PutRecordBatch.Latency |  `PutRecordBatch` 작업 1건당 지정한 시간 동안 측정된 소요 시간 통계: Minimum, Maximum, Average, Samples 단위: 밀리초  | 
| PutRecordBatch.Records |  `PutRecordBatch` 작업의 총 레코드 수 통계: Minimum, Maximum, Average, Sum, Samples 단위: 개  | 
| PutRecordBatch.Requests |  `PutRecordBatch` 요청 총 수 통계: Minimum, Maximum, Average, Sum, Samples 단위: 개  | 
| PutRequestsPerSecondLimit | 조절 전에 Firehose 스트림이 처리할 수 있는 초당 최대 PUT 요청 수입니다. 여기에는 PutRecord 및 PutRecordBatch 요청이 포함됩니다. 통계: Minimum, Maximum, Average, Sum, Samples 단위: 개 | 
| ThrottledDescribeStream |  데이터 원본이 Kinesis 데이터 스트림일 때 `DescribeStream` 작업에서 병목 현상이 일어나는 총 횟수 통계: Minimum, Maximum, Average, Sum, Samples 단위: 개  | 
| ThrottledGetRecords |  데이터 원본이 Kinesis 데이터 스트림일 때 `GetRecords` 작업에서 병목 현상이 일어나는 총 횟수 통계: Minimum, Maximum, Average, Sum, Samples 단위: 개  | 
| ThrottledGetShardIterator |  데이터 원본이 Kinesis 데이터 스트림일 때 `GetShardIterator` 작업에서 병목 현상이 일어나는 총 횟수 통계: Minimum, Maximum, Average, Sum, Samples 단위: 개  | 
| UpdateDeliveryStream.Latency |  `UpdateDeliveryStream` 작업 1건당 지정한 시간 동안 측정된 소요 시간 통계: Minimum, Maximum, Average, Samples 단위: 밀리초  | 
| UpdateDeliveryStream.Requests |  `UpdateDeliveryStream` 요청 총 수 통계: Minimum, Maximum, Average, Sum, Samples 단위: 개  | 

## 데이터 변환 CloudWatch 지표
<a name="fh-metrics-data-transformation"></a>

Lambda를 이용한 데이터 변환이 활성화된 경우 `AWS/Firehose` 네임스페이스에 다음과 같은 지표가 포함됩니다.


| 지표 | 설명 | 
| --- | --- | 
| ExecuteProcessing.Duration |  Firehose가 각 Lambda 함수 호출을 수행하는 데 걸리는 시간. 단위: 밀리초  | 
| ExecuteProcessing.Success |  전체 Lambda 함수 호출의 합계 대비 성공한 Lambda 함수 호출의 합계.  | 
| SucceedProcessing.Records |  지정한 시간 동안 성공적으로 처리된 레코드 수 단위: 개  | 
| SucceedProcessing.Bytes |  지정한 시간 동안 성공적으로 처리된 바이트 수 단위: 바이트  | 

## CloudWatch Logs 압축 해제 지표
<a name="decompression-metrics-cw"></a>

CloudWatch Logs 전송에 압축 해제가 활성화된 경우 `AWS/Firehose` 네임스페이스에는 다음 지표가 포함됩니다.


| 지표 | 설명 | 
| --- | --- | 
| OutputDecompressedBytes.Success |  바이트 단위의 성공적인 압축 해제 데이터 통계: Minimum, Maximum, Average, Sum, Samples 단위: 바이트  | 
| OutputDecompressedBytes.Failed |  바이트 단위의 압축 해제된 데이터 실패 통계: Minimum, Maximum, Average, Sum, Samples 단위: 바이트  | 
| OutputDecompressedRecords.Success |  압축 해제된 레코드 성공 수 통계: Minimum, Maximum, Average, Sum, Samples 단위: 개  | 
| OutputDecompressedRecords.Failed |  실패한 압축 해제된 레코드 수 통계: Minimum, Maximum, Average, Sum, Samples 단위: 개  | 

## 형식 변환 CloudWatch 지표
<a name="fh-metrics-format-conversion"></a>

형식 변환이 활성화된 경우 `AWS/Firehose` 네임스페이스에 다음 지표가 포함됩니다.


| 지표 | 설명 | 
| --- | --- | 
| SucceedConversion.Records |  성공적으로 변환된 레코드 수. 단위: 개  | 
| SucceedConversion.Bytes |  성공적으로 변환된 레코드의 크기. 단위: 바이트  | 
| FailedConversion.Records |  변환하지 못한 레코드 수. 단위: 개  | 
| FailedConversion.Bytes |  변환하지 못한 레코드의 크기. 단위: 바이트  | 

## 서버 측 암호화(SSE) CloudWatch 지표
<a name="fh-metrics-sse"></a>

`AWS/Firehose` 네임스페이스에는 SSE와 관련된 다음 지표가 포함됩니다.


| 지표 | 설명 | 
| --- | --- | 
| KMSKeyAccessDenied |  Firehose 스트림에 대해 서비스에서 `KMSAccessDeniedException`이 발생한 횟수입니다. 통계: Minimum, Maximum, Average, Sum, Samples 단위: 개  | 
| KMSKeyDisabled |  Firehose 스트림에 대해 서비스에서 `KMSDisabledException`이 발생한 횟수입니다. 통계: Minimum, Maximum, Average, Sum, Samples 단위: 개  | 
| KMSKeyInvalidState |  Firehose 스트림에 대해 서비스에서 `KMSInvalidStateException`이 발생한 횟수입니다. 통계: Minimum, Maximum, Average, Sum, Samples 단위: 개  | 
| KMSKeyNotFound |  Firehose 스트림에 대해 서비스에서 `KMSNotFoundException`이 발생한 횟수입니다. 통계: Minimum, Maximum, Average, Sum, Samples 단위: 개  | 

## Amazon Data Firehose의 측정기준
<a name="firehose-metric-dimensions"></a>

Firehose 스트림별로 측정치를 필터링하려면 `DeliveryStreamName` 측정기준을 사용합니다.

## Amazon Data Firehose 사용 지표
<a name="fh-metrics-usage"></a>

CloudWatch 사용량 지표를 사용하여 계정의 리소스 사용량을 확인할 수 있습니다. 이러한 지표를 사용하여 CloudWatch 그래프 및 대시보드에서 현재 서비스 사용량을 시각화합니다.

서비스 할당량 사용량 지표는 AWS/사용 네임스페이스에 있으며 3분마다 수집됩니다.

현재 CloudWatch가 게시하는 이 네임스페이스의 유일한 지표 이름은 `ResourceCount`입니다. 이 지표는 `Service`, `Class`, `Type` 및 `Resource` 차원으로 게시됩니다.


| 지표 | 설명 | 
| --- | --- | 
| ResourceCount |  계정에서 실행 중인 지정된 리소스의 수입니다. 리소스는 지표와 연결된 차원에 의해 정의됩니다. 이 지표에 가장 유용한 통계는 3분 동안 사용된 최대 리소스 수를 나타내는 MAXIMUM입니다.  | 

다음 측정기준은 Amazon Data Firehose에 의해 게시되는 사용량 지표를 구체화하는 데 사용됩니다.


| 차원 | 설명 | 
| --- | --- | 
| Service |  리소스가 포함된 AWS 서비스의 이름입니다. Amazon Data Firehose 사용량 지표의 경우 이 측정기준 값은 `Firehose`입니다.  | 
| Class |  추적 중인 리소스의 클래스입니다. Amazon Data Firehose API 사용량 지표는 이 측정기준을 `None` 값과 함께 사용합니다.  | 
| Type |  추적 중인 리소스의 유형입니다. 현재 서비스 차원이 `Firehose`인 경우 Type에 대한 유일한 유효한 값은 `Resource`입니다.  | 
| Resource |   AWS 리소스의 이름입니다. 현재 서비스 차원이 `Firehose`인 경우 Resource에 대한 유일한 유효한 값은 `DeliveryStreams`입니다.  | 