

기계 번역으로 제공되는 번역입니다. 제공된 번역과 원본 영어의 내용이 상충하는 경우에는 영어 버전이 우선합니다.

# Amazon EFS 모니터링
<a name="monitoring_overview"></a>

모니터링은 Amazon EFS 및 AWS 솔루션의 안정성, 가용성 및 성능을 유지하는 데 중요한 부분입니다. 다중 지점 장애가 발생할 경우 보다 쉽게 디버깅할 수 있도록 AWS 솔루션의 모든 부분으로부터 모니터링 데이터를 수집하는 것이 좋습니다. 하지만 Amazon EFS 모니터링을 시작하기 전에 다음 질문에 대한 답변을 포함하는 모니터링 계획을 작성하세요.
+ 모니터링의 목표
+ 모니터링할 리소스
+ 이러한 리소스를 모니터링하는 빈도
+ 사용할 모니터링 도구
+ 모니터링 작업을 수행할 사람
+ 문제 발생 시 알려야 할 대상

다음 단계에서는 다양한 시간과 다양한 부하 조건에서 성능을 측정하여 환경에서 일반 Amazon EFS 성능의 기준선을 설정합니다. Amazon EFS를 모니터링할 때 과거 모니터링 데이터를 저장하는 것이 좋습니다. 이 저장된 데이터는 현재 성능 데이터와 비교하고, 일반 성능 패턴과 성능 이상을 식별하고, 문제 해결 방법을 제안하는 기준이 됩니다.

예를 들어 Amazon EFS에서 네트워크 처리량, 읽기, 쓰기 및 메타데이터 작업에 대한 I/O, 클라이언트 연결, 파일 시스템에 대한 버스트 크레딧 밸런스 등을 모니터링할 수 있습니다. 성능이 정해진 기준에 못 미치는 경우, 워크로드에 맞게 파일 시스템을 최적화하기 위해 파일 시스템의 크기 또는 연결된 클라이언트 수를 변경해야 할 수 있습니다.

기준선을 설정하려면 최소한 다음 항목을 모니터링해야 합니다.
+ 파일 시스템의 네트워크 처리량
+ 파일 시스템에 연결된 클라이언트 수
+ 각 파일 시스템 작업(데이터 읽기, 쓰기 및 메타데이터 작업 포함)에 필요한 바이트 수

**Topics**
+ [모니터링 도구](monitoring_automated_manual.md)
+ [Amazon EFS에서 파일 시스템 및 객체 크기를 보고하는 방법](metered-sizes.md)
+ [스토리지 클래스 크기 보기](view-storage-class-size.md)
+ [Amazon CloudWatch를 사용한 지표 모니터링](monitoring-cloudwatch.md)
+ [를 사용하여 Amazon EFS API 호출 로깅 AWS CloudTrail](logging-using-cloudtrail.md)

# 모니터링 도구
<a name="monitoring_automated_manual"></a>

AWS 는 Amazon EFS를 모니터링하는 데 사용할 수 있는 다양한 도구를 제공합니다. 이들 도구 중에는 모니터링을 자동으로 수행하도록 구성할 수 있는 도구도 있지만, 수동 작업이 필요한 도구도 있습니다. 모니터링 작업은 최대한 자동화하는 것이 좋습니다.

## 자동 모니터링 도구
<a name="monitoring_automated_tools"></a>

다음과 같은 자동 모니터링 도구를 사용하여 Amazon EFS를 관찰하고 문제 발생 시 보고할 수 있습니다.
+ **Amazon CloudWatch 경보** – 지정한 기간 동안 단일 지표를 감시하고, 여러 기간에 대해 지정된 임곗값과 관련하여 지표 값을 기준으로 하나 이상의 작업을 수행합니다. 이 태스크는 Amazon Simple Notification Service(SNS) 주제 또는 Amazon EC2 Auto Scaling 정책에 전송되는 알림입니다. CloudWatch 경보는 특정 상태에 있다는 이유만으로는 작업을 간접 호출하지 않습니다. 상태가 변경되고 지정한 기간 동안 유지되어야 합니다. 자세한 내용은 [Amazon CloudWatch를 사용한 지표 모니터링](monitoring-cloudwatch.md) 단원을 참조하십시오.
+ **Amazon CloudWatch Logs** – AWS CloudTrail 또는 기타 소스의 로그 파일을 모니터링, 저장 및 액세스합니다. 자세한 내용은 *Amazon CloudWatch 사용 설명서*에서 [Amazon CloudWatch Logs란 무엇입니까?](https://docs.aws.amazon.com/AmazonCloudWatch/latest/logs/WhatIsCloudWatchLogs.html)를 참조하세요.
+ **Amazon CloudWatch Events** – 이벤트를 일치시키고 하나 이상의 대상 함수 또는 스트림으로 라우팅하여 값을 변경하거나 상태 정보를 캡처하거나 수정 작업을 수행합니다. 자세한 내용은 *Amazon CloudWatch 사용 설명서*의 [Amazon CloudWatch Events란 무엇인가요](https://docs.aws.amazon.com/AmazonCloudWatch/latest/events/WhatIsCloudWatchEvents.html)를 참조하세요.
+ **AWS CloudTrail 로그 모니터링** - 계정 간에 로그 파일을 공유하고, CloudTrail 로그 파일을 CloudWatch Logs로 전송하여 실시간으로 모니터링하고, Java로 로그 처리 애플리케이션을 작성하고, CloudTrail에서 전송한 후 로그 파일이 변경되지 않았는지 확인합니다. 자세한 내용은 *AWS CloudTrail 사용 설명서*의 [CloudTrail 로그 파일 작업](https://docs.aws.amazon.com/awscloudtrail/latest/userguide/cloudtrail-working-with-log-files.html)을 참조하십시오.

## 수동 모니터링 도구
<a name="monitoring_manual_tools"></a>

Amazon EFS 모니터링의 또 한 가지 중요한 부분은 Amazon CloudWatch 경보에 포함되지 않는 항목을 수동으로 모니터링해야 한다는 점입니다. Amazon EFS, CloudWatch 및 기타 AWS Management Console 대시보드는 AWS 환경 상태를 at-a-glance 볼 수 있습니다. 파일 시스템의 로그 파일도 확인하는 것이 좋습니다.
+ Amazon EFS 콘솔에서 파일 시스템에 대해 다음과 같은 항목을 찾을 수 있습니다.
  + 현재 측정된 크기
  + 탑재 대상 수
  + 수명 주기 상태
+ CloudWatch 홈 페이지에 표시되는 항목은 다음과 같습니다.
  + 현재 경보 및 상태
  + 경보 및 리소스 그래프
  + 서비스 상태

  또한 CloudWatch를 사용하여 다음을 수행할 수 있습니다.
  + [사용자 지정 대시보드](https://docs.aws.amazon.com/AmazonCloudWatch/latest/monitoring/CloudWatch_Dashboards.html)를 만들어 사용하는 서비스 모니터링
  + 지표 데이터를 그래프로 작성하여 문제를 해결하고 추세 파악
  + 모든 AWS 리소스 지표를 검색하고 검색합니다.
  + 문제에 대해 알려주는 경보 생성 및 편집

# Amazon EFS에서 파일 시스템 및 객체 크기를 보고하는 방법
<a name="metered-sizes"></a>

다음 단원에서는 Amazon EFS가 파일 시스템 크기, 파일 시스템 내 객체 크기 및 파일 시스템 처리량을 보고하는 방법에 대해 설명합니다.

## EFS 파일 시스템 객체 측정
<a name="metered-sizes-fs-objects"></a>

EFS 파일 시스템에서 볼 수 있는 객체는 일반 파일, 디렉터리, 심볼 링크 및 특수 파일(FIFO 및 소켓)일 수 있습니다. inode에 대한 메타데이터 2KiB(키비바이트) 및 데이터 4KiB 단위로 이러한 객체를 각각 측정합니다. 다음 목록은 파일 시스템 객체의 여러 유형에 대해 측정된 데이터 크기를 설명합니다.
+ **일반 파일** - 일반 파일의 측정된 데이터 크기는 다음 4KiB 증분으로 반올림한 파일의 논리적 크기입니다. 단, 스파스 파일의 경우 이보다 작을 수 있습니다.

  스파스 파일**은 논리적 크기에 도달하기 전에는 파일의 어떤 위치에도 데이터를 쓰지 않는 파일입니다. 스파스 파일의 경우 사용되는 실제 스토리지가 다음 4KiB로 반올림된 논리적 크기보다 작을 수 있습니다. 이 경우 Amazon EFS에서는 사용된 실제 스토리지를 측정된 데이터 크기로 보고합니다.
+ **디렉터리** - 디렉터리의 측정된 데이터 크기는 디렉터리 항목에 사용된 실제 스토리지와 해당 항목을 보관하는 데이터 구조를 다음 4KiB 단위로 반올림한 값입니다. 이 메타데이터 데이터 크기에는 파일 데이터가 사용하는 실제 스토리지가 포함되지 않습니다.
+ **심볼 링크 및 특수 파일** - 이러한 객체의 측정된 데이터 크기는 항상 4KiB입니다.

Amazon EFS가 NFSv4.1 `space_used` 속성을 통해 객체에 사용되는 공간을 보고하는 경우 여기에는 객체의 메타데이터 크기가 아니라 객체의 현재 측정된 데이터 크기가 포함됩니다. 파일의 디스크 사용량 측정에는 `du` 및 `stat`라는 두 가지 유틸리티를 사용할 수 있습니다. 다음은 빈 파일에서 `-k` 옵션과 함께 `du` 유틸리티를 사용하여 출력을 KB 단위로 반환하는 방법을 보여주는 예시입니다.

```
$ du -k file
4      file
```

다음은 빈 파일에서 `stat` 유틸리티를 사용하여 파일의 디스크 사용량을 반환하는 방법을 보여주는 예시입니다.

```
$ /usr/bin/stat --format="%b*%B" file | bc
4096
```

디렉터리의 크기를 측정하려면 `stat` 유틸리티를 사용합니다. `Blocks` 값을 찾은 다음 이 값에 블록 크기를 곱합니다. 다음은 빈 디렉터리에서 `stat` 유틸리티를 사용하는 방법을 보여주는 예입니다.

```
$ /usr/bin/stat --format="%b*%B" . | bc 
4096
```

## EFS 파일 시스템의 측정된 크기
<a name="metered-sizes-fs"></a>

EFS 파일 시스템의 측정된 크기에는 모든 EFS 스토리지 클래스에 있는 모든 현재 오브젝트의 크기 합계가 포함됩니다. 각 객체의 크기는 측정 시간(예: 오전 8시\$1오전 9시) 동안 객체의 크기를 나타내는 대표 표본에서 계산합니다.

빈 파일이 파일 시스템의 측정된 크기 중 6KiB(2KiB의 메타데이터 \$1 4KiB의 데이터)를 차지합니다. 생성 시 파일 시스템에는 빈 루트 디렉터리가 하나뿐이므로 측정된 크기는 6KiB입니다.

특정 파일 시스템의 측정된 크기는 해당 시간 동안 해당 파일 시스템에 대해 소유자 계정에 청구되는 사용량을 정의합니다.

**참고**  
계산된 측정 크기는 해당 시간 중 특성 시점에서 파일 시스템의 일관된 스냅샷을 나타내지 않습니다. 매 시간 또는 가능한 경우 해당 시간 이전의 다양한 시점에서 파일 시스템 내에 존재하는 객체의 크기를 나타냅니다. 이러한 크기가 합산되어 해당 시간에 대해 측정된 파일 시스템의 크기를 결정합니다. 따라서 파일 시스템의 측정된 크기는 파일 시스템에 대한 쓰기가 없는 경우 저장된 객체의 측정된 크기와 일치합니다.

EFS 파일 시스템에 대해 측정된 크기는 다음과 같은 방법으로 확인할 수 있습니다.
+ [https://docs.aws.amazon.com/cli/latest/reference/efs/describe-file-systems.html](https://docs.aws.amazon.com/cli/latest/reference/efs/describe-file-systems.html) AWS CLI 명령과 [DescribeFileSystem](API_DescribeFileSystems.md) API 작업을 사용하여 응답에는 다음이 포함됩니다.

  ```
  "SizeInBytes":{
              "Timestamp": 1403301078,
              "Value": 29313744866,
              "ValueInIA": 675432,
              "ValueInStandard": 29312741784
              "ValueInArchive": 327650
           }
  ```

  `ValueInStandard`의 측정된 크기는 [버스팅 처리량](performance.md#throughput-modes)을 사용하는 파일 시스템의 I/O 처리량 기준 및 버스트 속도를 결정하는 데에도 사용됩니다.
+ 각 스토리지 클래스의 총 측정 데이터 크기를 표시하는 `StorageBytes` CloudWatch 지표를 확인합니다. `StorageBytes` 지표에 대한 자세한 내용은 [Amazon EFS에 대한 CloudWatch 지표](efs-metrics.md)를 참고하세요.
+ Linux의 `df` 명령은 EC2 인스턴스의 터미널 프롬프트에서 실행합니다.

  파일 시스템 루트에서 이 **du** 명령을 스토리지 측정 목적으로 사용하지 마십시오. 응답에는 파일 시스템 측정에 사용된 전체 집합 데이터가 반영되지 않기 때문입니다.

**참고**  
`ValueInStandard`의 측정된 크기는 I/O 처리량 기준 및 버스트 속도를 확인하는 데에도 사용됩니다. 자세한 내용은 [버스팅 처리량](performance.md#bursting) 단원을 참조하십시오.

### Infrequent Access 및 Archive 스토리지 클래스 측정
<a name="metered-sizes-IA"></a>

EFS Infrequent Access(IA) 및 Archive 스토리지 클래스는 4KiB 단위로 측정되며 파일당 최소 청구 요금은 128KiB입니다. IA 및 Archive 파일 메타데이터(파일당 2KiB)는 항상 Standard 스토리지 클래스에 저장되고 측정됩니다. 128KiB 미만의 파일에 대한 지원은 2023년 11월 26일 오후 12시(PT) 당일 또는 그 이후에 업데이트된 수명 주기 정책에만 사용할 수 있습니다. IA 및 Archive 스토리지에 대한 데이터 액세스는 128MiB 단위로 측정됩니다.

`StorageBytes` CloudWatch 지표를 사용하여 각 스토리지 클래스에서 측정된 데이터 크기를 확인할 수 있습니다. 이 지표에는 IA 및 Archive 스토리지 클래스 내에서 작은 파일 반올림으로 소비되는 총 바이트 수도 표시됩니다. CloudWatch 지표를 확인하는 방법에 대한 자세한 내용은 [Amazon EFS용 CloudWatch 지표 액세스](accessingmetrics.md) 단원을 참조하세요. `StorageBytes` 지표에 대한 자세한 내용은 [Amazon EFS에 대한 CloudWatch 지표](efs-metrics.md)를 참고하세요.

## 처리량 측정
<a name="metering-throughput"></a>

Amazon EFS는 다른 파일 시스템 I/O 작업의 1/3 속도로 읽기 요청 처리량을 측정합니다. 예를 들어 읽기 및 쓰기 처리량 모두에서 초당 30메비바이트(MiBps)를 구동하는 경우 읽기 부분은 유효 처리량에서 10MiBps로 계산되고 쓰기 부분은 30MiBps로 계산되며 측정된 총 처리량은 40MiBps입니다. 사용률에 맞게 조정된 이 총 처리량은 `MeteredIOBytes` CloudWatch 지표에 반영됩니다.

### 탄력적 처리량 측정
<a name="metering-elastic-throughput"></a>

파일 시스템에 탄력적 처리량 모드를 사용하도록 설정하면 파일 시스템에서 읽거나 파일 시스템에 쓴 메타데이터 및 데이터 양에 대해서만 비용을 지불하면 됩니다. 탄력적 처리량 모드를 사용하는 EFS 파일 시스템은 메타데이터 읽기를 데이터 읽기 작업으로, 메타데이터 쓰기는 메타데이터 쓰기 작업으로 청구합니다. 메타데이터 작업은 처음 4KiB 이후 1KiB 단위로 측정됩니다. 데이터 작업은 처음 32KiB 이후 1KiB 단위로 측정됩니다.

**참고**  
탄력적 처리량은 처리량에 따라 탄력적으로 확장되도록 설계되었지만 운영 모범 사례의 일환으로 CloudWatch(MeteredIOBytes) 및 사용량 알림을 사용하여 지표를 모니터링하여 적절한 거버넌스를 구현하는 것이 좋습니다. 이를 통해 최적의 리소스 사용률을 유지하고 계획된 운영 파라미터를 유지할 수 있습니다. 자세한 내용은 [Amazon CloudWatch를 사용한 지표 모니터링](monitoring-cloudwatch.md) 단원을 참조하십시오.

### 프로비저닝 처리량 측정
<a name="metering-provisioned-throughput"></a>

프로비저닝된 처리량 모드를 사용하는 파일 시스템의 경우, 처리량이 활성화된 시간만큼만 비용을 지불합니다. Amazon EFS는 프로비저닝 처리량 모드가 활성화된 파일 시스템을 1시간에 한 번씩 측정합니다. 프로비저닝 처리량 모드가 1시간 미만으로 설정된 상황에서 측정할 경우 Amazon EFS는 밀리초 단위의 정밀도를 사용하여 시간 평균을 계산합니다.

# 스토리지 클래스 크기 보기
<a name="view-storage-class-size"></a>

Amazon EFS 콘솔 AWS CLI, 또는 EFS API를 사용하여 파일 시스템의 각 스토리지 클래스에 저장되는 데이터의 양을 볼 수 있습니다.

## 콘솔 사용
<a name="billing-metric"></a>

**파일 시스템 세부 정보** 페이지의 **측정된 크기** 탭에는 파일 시스템의 현재 측정된 크기가 바이트의 2진수 배수(키비바이트, 메비바이트, 기가바이트, 테비바이트)로 표시됩니다. 지표는 15분마다 생성되며 시간 경과에 따른 파일 시스템의 측정된 크기를 확인할 수 있습니다. **측정된 크기**에는 파일 시스템 스토리지 크기에 대한 다음 정보가 표시됩니다.
+ **총 크기**는 모든 스토리지 클래스를 포함하여 파일 시스템에 저장된 데이터의 크기(바이너리 바이트)입니다.
+ **Standard의 크기**는 EFS Standard 스토리지 클래스에 저장된 데이터의 크기(바이너리 바이트)입니다.
+ **IA의 크기**는 EFS Infrequent Access 스토리지 클래스에 저장된 데이터의 크기(바이너리 바이트)입니다. 128KiB보다 작은 파일은 128KiB로 반올림됩니다.
+ **Archive의 크기**는 EFS Archive 스토리지 클래스에 저장된 데이터의 크기(바이너리 바이트)입니다. 128KiB보다 작은 파일은 128KiB로 반올림됩니다.

Amazon EFS 콘솔의 **파일 시스템 세부 정보** 페이지에 있는 **모니터링** 탭에서도 `Storage bytes` 지표를 볼 수 있습니다. 자세한 내용은 [Amazon EFS용 CloudWatch 지표 액세스](accessingmetrics.md) 단원을 참조하십시오.

## 사용 AWS CLI
<a name="billing-cli"></a>

 AWS CLI 또는 EFS API를 사용하여 파일 시스템의 각 스토리지 클래스에 저장되는 데이터의 양을 볼 수 있습니다. `describe-file-systems`CLI 명령(해당 API 작업은 [DescribeFileSystems](API_DescribeFileSystems.md))을 직접 호출하여 데이터 스토리지 세부 정보를 확인합니다.

```
$  aws efs describe-file-systems \
--region us-west-2 \
--profile adminuser
```

응답에서 `ValueInIA`는 파일 시스템의 Inrequent Access 스토리지 클래스에서 마지막으로 측정된 크기(바이트)를 표시합니다. `ValueInStandard`는 Standard 스토리지 클래스에서 마지막으로 측정한 크기(바이트)를 표시합니다. `ValueInArchive`는 Archive 스토리지 클래스에서 마지막으로 측정한 크기(바이트)를 표시합니다. 세 값의 합계는 `Value`에 표시된 전체 파일 시스템의 크기와 같습니다.

```
{
   "FileSystems":[
      {
         "OwnerId":"251839141158",
         "CreationToken":"MyFileSystem1",
         "FileSystemId":"fs-47a2c22e",
         "PerformanceMode" : "generalPurpose",
         "CreationTime": 1403301078,
         "LifeCycleState":"created",
         "NumberOfMountTargets":1,
         "SizeInBytes":{
            "Value": 29313746702,
            "ValueInIA": 675432,
            "ValueInStandard": 29312741784,
            "ValueInArchive":329486
        },
        "ThroughputMode": "elastic"
      }
   ]
}
```

디스크 사용량을 보기 및 측정하는 다른 방법은 [EFS 파일 시스템 객체 측정](metered-sizes.md#metered-sizes-fs-objects) 섹션을 참조하세요.

# Amazon CloudWatch를 사용한 지표 모니터링
<a name="monitoring-cloudwatch"></a>

Amazon EFS에서 원시 데이터를 수집하여 읽기 가능하며 실시간에 가까운 지표로 처리하는 Amazon CloudWatch를 통해 파일 시스템을 모니터링할 수 있습니다. 이러한 통계는 15개월간 기록되므로 웹 애플리케이션이나 서비스가 어떻게 실행되고 있는지 전체적으로 더 잘 파악할 수 있습니다.

기본적으로 Amazon EFS 지표 데이터는 일부 개별 지표에 대해 별도로 명시되지 않는 한 1분 간격으로 CloudWatch로 자동 전송됩니다. Amazon EFS 콘솔에는 Amazon CloudWatch의 원시 데이터를 기초로 하는 일련의 그래프가 표시됩니다. 필요에 따라 콘솔의 그래프 대신에 Amazon CloudWatch에서 파일 시스템의 데이터를 얻는 것을 선호할 수도 있습니다.

Amazon CloudWatch에 대한 자세한 내용은 *Amazon CloudWatch 사용 설명서*의 [Amazon CloudWatch란 무엇입니까?](https://docs.aws.amazon.com/AmazonCloudWatch/latest/monitoring/WhatIsCloudWatch.html)를 참조하세요.

아마존 EFS CloudWatch 지표는 원시 바이트**로 보고됩니다. 바이트는 단위의 십진수나 이진수에 반올림되지 않습니다.

**Topics**
+ [Amazon EFS에 대한 CloudWatch 지표](efs-metrics.md)
+ [Amazon EFS용 CloudWatch 지표 액세스](accessingmetrics.md)
+ [Amazon EFS용 CloudWatch 지표 사용](how_to_use_metrics.md)
+ [CloudWatch 지표와 함께 지표 수식 사용](monitoring-metric-math.md)
+ [탑재 시도 성공 또는 실패 모니터링](how-to-monitor-mount-status.md)
+ [Amazon EFS 모니터링을 위한 CloudWatch 경보 생성](creating_alarms.md)

# Amazon EFS에 대한 CloudWatch 지표
<a name="efs-metrics"></a>

Amazon EFS 지표에는 `EFS` 네임스페이스가 사용됩니다. `AWS/EFS` 네임스페이스에는 다음과 같은 지표가 포함됩니다. `TimeSinceLastSync`를 제외한 모든 지표는 단일 차원 `FileSystemId`에 대한 것입니다. 파일 시스템의 ID는 Amazon EFS 콘솔에서 찾아볼 수 있으며, 그 형식은 `fs-abcdef0123456789a`를 따릅니다.



**`TimeSinceLastSync`**  
복제 구성에서 대상 파일 시스템에 마지막으로 성공적으로 동기화한 이후 경과된 시간을 표시합니다. `TimeSinceLastSync` 값이 성공적으로 복제되기 전에 발생한 소스 파일 시스템의 모든 데이터 변경은 성공적으로 복제되었습니다. `TimeSinceLastSync` 이후에 발생한 소스의 모든 변경 사항은 완전히 복제되지 않을 수 있습니다.  
이 지표에는 다음 두 가지 차원이 사용됩니다.  
+ `FileSystemId` 차원 - 복제 구성에서 소스 파일 시스템의 ID입니다.
+ `DestinationFileSystemId` 차원 - 복제 구성에서 대상 파일 시스템의 ID입니다.
단위: 초  
유효한 통계: `Minimum`, `Maximum`, `Average` 

**`PercentIOLimit`**  
파일 시스템이 범용 성능 모드의 I/O 제한에 얼마나 가깝게 도달해있는지 나타냅니다.  
단위: 백분율  
유효한 통계: `Minimum`, `Maximum`, `Average` 

**`BurstCreditBalance`**  
파일 시스템의 버스트 크레딧 수 파일 시스템은 버스트 크레딧을 사용하여 일정 시간 파일 시스템의 기준 레벨을 넘는 처리량 레벨까지 버스팅할 수 있습니다.  
`Minimum` 통계는 해당 기간을 통틀어서 가장 작은 버스트 크레딧 밸런스를 말합니다. `Maximum` 통계는 해당 기간을 통틀어서 가장 큰 버스트 크레딧 밸런스를 말합니다. 그리고 `Average` 통계는 해당 기간 중 평균 버스트 크레딧 밸런스를 말합니다.  
단위: 바이트  
유효한 통계: `Minimum`, `Maximum`, `Average` 

**`PermittedThroughput`**  
파일 시스템이 구동할 수 있는 최대 처리량입니다.  
+ 탄력적 처리량 모드를 사용하는 파일 시스템의 경우 이 값은 파일 시스템의 최대 쓰기 처리량을 반영합니다.
+ 프로비저닝된 처리량 모드를 사용하는 파일 시스템의 경우 EFS Standard 스토리지 클래스에 저장된 데이터의 양으로 인해 파일 시스템이 프로비저닝된 것보다 많은 양을 처리할 수 있는 경우 이 지표는 프로비저닝된 용량 대신 더 높은 처리량을 반영합니다.
+ 버스팅 처리량에서 파일 시스템의 경우, 이 값은 파일 시스템 크기 및 `BurstCreditBalance`에 따라 달라집니다.
`Minimum` 통계는 해당 기간을 통틀어서 최소 허용 처리량을 말합니다. `Maximum` 통계는 해당 기간을 통틀어서 최고 허용 처리량을 말합니다. 그리고 `Average` 통계는 해당 기간 중 평균 허용 처리량을 말합니다.  
읽기 작업은 다른 작업의 3분의 1 비율로 측정됩니다.
단위: 바이트/초  
유효한 통계: `Minimum`, `Maximum`, `Average` 

**`MeteredIOBytes`**  
데이터 읽기, 데이터 쓰기 및 메타데이터 작업을 포함하여 각 파일 시스템 작업에 대해 측정된 바이트 수로, 처리량 제한에 따라 읽기 작업이 할인됩니다.  
`MeteredIOBytes`를 `PermittedThroughput`와 비교하는 [CloudWatch 지표 수식 표현식](monitoring-metric-math.md#metric-math-throughput-utilization)을 생성할 수 있습니다. 이 값이 같으면 파일 시스템에 할당된 전체 처리량을 소비하게 됩니다. 이 경우 처리량을 높이기 위해 파일 시스템의 처리량 모드를 변경하는 것을 고려할 수 있습니다.  
`Sum` 통계는 모든 파일 시스템 작업과 연결되어 측정된 총 바이트 수입니다. `Minimum` 통계는 해당 기간 중 가장 작은 작업의 크기입니다. `Maximum` 통계는 해당 기간 중 가장 큰 작업의 크기입니다. `Average` 통계는 해당 기간 중 작업의 평균 크기입니다. `SampleCount` 통계는 모든 작업의 수를 제공합니다.  
단위:  
+ `Minimum`, `Maximum`, `Average` 및 `Sum` 통계일 때 바이트
+ `SampleCount` 통계일 때 수
유효한 통계: `Minimum`, `Maximum`, `Average`, `Sum`, `SampleCount` 

** TotalIOBytes **  
읽기 할인 없이 Amazon EFS에서 처리하는 각 파일 시스템 작업의 실제 바이트 수입니다. 이 숫자에는 최소값이 포함되어 있으므로 애플리케이션에서 요청한 실제 금액과 다를 수 있습니다. 이 숫자는 `PermittedThroughput`에 표시된 숫자보다 높을 수도 있습니다.  
데이터 작업은 32KiB에서 측정되고 다른 작업은 4KiB에서 측정됩니다. 최소값이 지나면 모든 작업이 KiB당 측정됩니다.  
`Sum` 통계는 모든 파일 시스템 작업과 연결된 총 바이트 수입니다. `Minimum` 통계는 해당 기간 중 가장 작은 작업의 크기입니다. `Maximum` 통계는 해당 기간 중 가장 큰 작업의 크기입니다. `Average` 통계는 해당 기간 중 작업의 평균 크기입니다. `SampleCount` 통계는 모든 작업의 수를 제공합니다.  
일정 기간 초당 평균 작업 수를 계산하려면 `SampleCount` 통계를 초 단위의 해당 기간으로 나누면 됩니다. 일정 기간 평균 처리량(바이트/초)을 계산하려면 `Sum` 통계를 초 단위의 해당 기간으로 나누면 됩니다.
단위:  
+ `Minimum`, `Maximum`, `Average` 및 `Sum` 통계일 때 바이트
+ `SampleCount` 통계일 때 수
유효한 통계: `Minimum`, `Maximum`, `Average`, `Sum`, `SampleCount` 

**`DataReadIOBytes`**  
각 파일 시스템 읽기 작업의 실제 바이트 수입니다.  
`Sum` 통계는 읽기 작업과 연결된 총 바이트 수입니다. `Minimum` 통계는 해당 기간 중 가장 작은 읽기 작업의 크기입니다. `Maximum` 통계는 해당 기간 중 가장 큰 읽기 작업의 크기입니다. `Average` 통계는 해당 기간 중 읽기 작업의 평균 크기입니다. 그리고 `SampleCount` 통계는 읽기 작업의 수를 제공합니다.  
단위:  
+ `Minimum`, `Maximum`, `Average` 및 `Sum` 통계일 때 바이트
+ `SampleCount` 통계일 때 수
유효한 통계: `Minimum`, `Maximum`, `Average`, `Sum`, `SampleCount` 

**`DataWriteIOBytes`**  
각 파일 시스템 쓰기 작업의 실제 바이트 수입니다.  
`Sum` 통계는 쓰기 작업과 연결된 총 바이트 수입니다. `Minimum` 통계는 해당 기간 중 가장 작은 쓰기 작업의 크기입니다. `Maximum` 통계는 해당 기간 중 가장 큰 쓰기 작업의 크기입니다. `Average` 통계는 해당 기간 중 쓰기 작업의 평균 크기입니다. 그리고 `SampleCount` 통계는 쓰기 작업의 수를 제공합니다.  
단위:  
+ `Minimum`, `Maximum`, `Average` 및 `Sum` 통계일 때 바이트
+ `SampleCount` 통계일 때 수
유효한 통계: `Minimum`, `Maximum`, `Average`, `Sum`, `SampleCount` 

**`MetadataIOBytes`**  
각 메타데이터 작업의 실제 바이트 수입니다.  
`Sum` 통계는 메타데이터 작업과 연결된 총 바이트 수입니다. `Minimum` 통계는 해당 기간 중 가장 작은 메타데이터 작업의 크기입니다. `Maximum` 통계는 해당 기간 중 가장 큰 메타데이터 작업의 크기입니다. `Average` 통계는 해당 기간 중 평균 메타데이터 작업의 크기입니다. 그리고 `SampleCount` 통계는 메타데이터 작업의 수를 제공합니다.  
단위:  
+ `Minimum`, `Maximum`, `Average` 및 `Sum` 통계일 때 바이트
+ `SampleCount` 통계일 때 수
유효한 통계: `Minimum`, `Maximum`, `Average`, `Sum`, `SampleCount` 

**`MetadataReadIOBytes`**  
각 메타데이터 읽기 작업의 실제 바이트 수입니다.  
`Sum` 통계는 메타데이터 읽기 작업과 관련된 총 바이트 수입니다. `Minimum` 통계는 해당 기간 중 가장 작은 메타데이터 읽기 작업의 크기입니다. `Maximum` 통계는 해당 기간 중 가장 큰 메타데이터 읽기 작업의 크기입니다. `Average` 통계는 해당 기간 중 메타데이터 읽기 작업의 평균 크기입니다. `SampleCount` 통계는 메타데이터 읽기 작업의 수를 제공합니다.  
단위:  
+ `Minimum`, `Maximum`, `Average` 및 `Sum` 통계일 때 바이트
+ `SampleCount` 통계일 때 수
유효한 통계: `Minimum`, `Maximum`, `Average`, `Sum`, `SampleCount` 

**`MetadataWriteIOBytes`**  
각 메타데이터 쓰기 작업의 실제 바이트 수입니다.  
`Sum` 통계는 메타데이터 쓰기 작업과 관련된 총 바이트 수입니다. `Minimum` 통계는 해당 기간 중 가장 작은 메타데이터 쓰기 작업의 크기입니다. `Maximum` 통계는 해당 기간 중 가장 큰 메타데이터 쓰기 작업의 크기입니다. `Average` 통계는 해당 기간 중 메타데이터 쓰기 작업의 평균 크기입니다. `SampleCount` 통계는 메타데이터 쓰기 작업의 수를 제공합니다.  
단위:  
+ `Minimum`, `Maximum`, `Average` 및 `Sum` 통계일 때 바이트
+ `SampleCount` 통계일 때 수
유효한 통계: `Minimum`, `Maximum`, `Average`, `Sum`, `SampleCount` 

**`ClientConnections`**  
파일 시스템에 연결된 클라이언트 수 표준 클라이언트를 사용할 경우 탑재된 Amazon EC2 인스턴스마다 하나씩 연결됩니다.  
1분 이상의 기간에 대한 평균 `ClientConnections`를 계산하려면 `Sum` 통계를 기간(분 단위)으로 나눕니다.
단위: 클라이언트 연결 수  
유효한 통계: `Sum`

**`StorageBytes`**  
EFS 스토리지 클래스에 저장된 데이터 양을 포함한 파일 시스템의 크기(바이트)입니다. 이 지표는 15분마다 CloudWatch로 전송됩니다.  
이 `StorageBytes` 지표에는 다음과 같은 차원이 있습니다.  
+ `Total`은 모든 스토리지 클래스에서 파일 시스템에 저장된 데이터의 측정된 크기(바이트)입니다. EFS Infrequent Access(IA) 및 EFS Archive 스토리지 클래스의 경우 128KiB보다 작은 파일은 128KiB 반올림됩니다.
+  `Standard`는 EFS Standard 스토리지 클래스에 저장된 데이터의 측정된 크기(바이트)입니다.
+  `IA`는 EFS Infrequent Access 스토리지 클래스에 저장된 데이터의 실제 크기(바이트)입니다.
+ `IASizeOverhead`는 EFS Infrequent Access 스토리지 클래스의 실제 데이터 크기(`IA` 차원에 표시됨)와 스토리지 클래스의 측정된 크기 사이의 차이(바이트)로, 작은 파일은 128KiB로 반올림한 후 계산합니다.
+ `Archive`는 EFS Archive 스토리지 클래스에 저장된 데이터의 실제 크기(바이트)입니다.
+ `ArchiveSizeOverhead`는 EFS Archive 스토리지 클래스의 실제 데이터 크기(`Archive` 차원에 표시됨)와 스토리지 클래스의 측정된 크기 사이의 차이(바이트)로, 작은 파일은 128KiB로 반올림한 후 계산합니다.
단위: 바이트  
유효한 통계: `Minimum`, `Maximum`, `Average`   
`StorageBytes`는 기본 1024 단위(키비바이트, 메비바이트, 기가바이트, 테비바이트)를 사용하여 Amazon EFS 콘솔 **파일 시스템 지표** 페이지에 표시됩니다.

# Amazon EFS용 CloudWatch 지표 액세스
<a name="accessingmetrics"></a>

다음과 같은 여러 가지 방법으로 CloudWatch에 대한 Amazon EFS 지표를 볼 수 있습니다.
+ Amazon EFS 콘솔에서
+ CloudWatch 콘솔에서
+ CloudWatch CLI 사용
+ CloudWatch API 사용

## CloudWatch 지표 및 경보를 보려면(Amazon EFS 콘솔)
<a name="view-metrics-console"></a>

1. 에 로그인 AWS Management Console 하고 [ https://console.aws.amazon.com/efs/](https://console.aws.amazon.com/efs/) Amazon EFS 콘솔을 엽니다.

1. **파일 시스템**을 선택합니다.

1. CloudWatch 지표를 확인하고자 하는 파일 시스템을 선택합니다.

1. **모니터링을** 선택하여 **파일 시스템 지표** 페이지를 표시합니다.

   **파일 시스템 지표** 페이지에는 파일 시스템에 대한 기본 CloudWatch 지표 세트가 표시됩니다. 구성한 모든 CloudWatch 경보도 이러한 지표와 함께 표시됩니다. 최대 I/O 성능 모드를 사용하는 파일 시스템의 경우 기본 지표 세트에는 입출력 비율 제한 대신 버스트 크레딧 밸런스가 포함됩니다. 설정을 열면 액세스할 수 있는 **지표 설정** 대화 상자를 사용하여 기본 설정을 재정의할 수 있습니다.
**참고**  
처리량 사용률(%) 지표는 CloudWatch 지표가 아니라 CloudWatch 측정치 계산을 사용하여 도출됩니다.

1. 다음과 같이 **파일 시스템 지표** 페이지의 컨트롤을 사용하여 지표와 경보가 표시되는 방식을 조정할 수 있습니다.
   + **디스플레이 모드**를 **시계열** 또는 **단일 값** 사이에서 전환합니다.
   + 파일 시스템에 구성된 CloudWatch 경보를 표시하거나 숨깁니다.
   + **CloudWatch에서 더 보기**를 선택하여 CloudWatch에서 지표를 확인하세요.
   + **대시보드에 추가**를 선택하여 CloudWatch 대시보드를 열고 표시된 지표를 추가합니다.
   + 표시된 지표 시간 창을 1시간에서 1주일로 조정합니다.

## CloudWatch 지표 및 경보를 보려면(CloudWatch 콘솔)
<a name="view-metrics-cw-console"></a>

1. [https://console.aws.amazon.com/cloudwatch/](https://console.aws.amazon.com/cloudwatch)에서 CloudWatch 콘솔을 엽니다.

1. 탐색 창에서 **지표**를 선택합니다.

1. **EFS** 네임스페이스를 선택합니다.

1. (선택 사항)지표를 보려면 검색 필드에 이름을 입력합니다.

1. (선택 사항)차원을 기준으로 필터링하려면 **FileSystemId**를 선택합니다.

## 에서 지표에 액세스하려면 AWS CLI
<a name="view-metrics-cli"></a>
+ [https://docs.aws.amazon.com/cli/latest/reference/cloudwatch/list-metrics.html](https://docs.aws.amazon.com/cli/latest/reference/cloudwatch/list-metrics.html) 명령과 `--namespace "AWS/EFS"` 네임스페이스를 사용합니다. 자세한 내용은 [AWS CLI 명령 참조](https://docs.aws.amazon.com/cli/latest/reference/)를 참조하세요.

## CloudWatch API에서 지표에 액세스하려면
<a name="view-metrics-cli"></a>
+ `[https://docs.aws.amazon.com/AmazonCloudWatch/latest/APIReference/API_GetMetricStatistics.html](https://docs.aws.amazon.com/AmazonCloudWatch/latest/APIReference/API_GetMetricStatistics.html)`를 호출합니다. 자세한 내용은 [CloudWatch API 참조](https://docs.aws.amazon.com/AmazonCloudWatch/latest/APIReference/)를 참조하세요.

# Amazon EFS용 CloudWatch 지표 사용
<a name="how_to_use_metrics"></a>

Amazon EFS에서 보고하는 지표는 다양한 방법으로 분석이 기능한 정보를 제공합니다. 다음 목록은 몇 가지 일반적인 지표 사용 사례를 보여 줍니다. 모든 사용 사례를 망라한 것은 아니지만 시작하는 데 참고가 될 것입니다.


| 방법 | 관련 지표 | 
| --- | --- | 
| 처리량은 어떻게 확인할 수 있습니까? | 매일 `TotalIOBytes` 지표의 `Sum` 통계를 모니터링하여 처리량을 확인할 수 있습니다.  | 
|  전송된 총 데이터 양을 확인하려면 어떻게 해야 하나요?  | MeteredIOBytes의 일일 Sum 통계를 모니터링하여 전송된 총 데이터를 볼 수 있습니다. | 
| 파일 시스템에 연결된 Amazon EC2 인스턴스 개수는 어떻게 추적할 수 있습니까? | `ClientConnections` 지표의 `Sum` 통계를 모니터링할 수 있습니다. 1분 이상의 기간에 대한 평균 `ClientConnections`를 계산하려면 합계를 기간(분 단위)으로 나눕니다. | 
| 버스트 크레딧 잔고는 어떻게 확인할 수 있나요? | 파일 시스템의 `BurstCreditBalance` 지표를 모니터링하여 잔고를 확인할 수 있습니다. 버스팅 및 버스트 크레딧에 대한 자세한 내용은 [버스팅 처리량](performance.md#bursting) 단원을 참조하세요.  | 

## 처리량 성능 모니터링
<a name="monitor-throughput-performance"></a>

처리량 모니터링을 위한 CloudWatch 지표(`TotalIOBytes`, `ReadIOBytes`, `WriteIOBytes`, `MetadataIOBytes`)는 파일 시스템에서 발생하는 실제 처리량을 나타냅니다. 지표 `MeteredIOBytes`는 구동 중인 전체 측정된 처리량의 계산을 나타냅니다. Amazon EFS 콘솔 **모니터링** 섹션의 **처리량 사용률(%)** 그래프를 사용하여 처리량 사용률을 모니터링할 수 있습니다. 사용자 지정 Amazon CloudWatch 대시보드 또는 다른 모니터링 도구를 사용하는 경우 `MeteredIOBytes`를 `PermittedThroughput`과 비교하는 [CloudWatch 지표 수식](monitoring-metric-math.md#metric-math-throughput-utilization)을 생성할 수 있습니다.

`PermittedThroughput`은 파일 시스템에 허용되는 처리량을 측정합니다. 이 값은 다음 방법 중 하나를 기반으로 합니다.
+ 탄력적 처리량을 사용하는 파일 시스템의 경우 이 값은 파일 시스템의 최대 쓰기 처리량을 반영합니다.
+ 프로비저닝된 처리량 모드를 사용하는 파일 시스템의 경우 EFS Standard 스토리지 클래스에 저장된 데이터의 양으로 인해 파일 시스템이 프로비저닝된 것보다 많은 양을 처리할 수 있는 경우 이 지표는 프로비저닝된 용량 대신 더 높은 처리량을 반영합니다.
+ 버스팅 처리량을 사용하는 파일 시스템의 경우 이 값은 파일 시스템 크기 및 `BurstCreditBalance`의 함수입니다. `BurstCreditBalance`를 모니터링하여 파일 시스템이 기본 속도가 아닌 버스트 속도로 작동하고 있는지 확인하세요. 잔고가 지속적으로 0이거나 0에 가까운 경우 추가 처리량을 확보하려면 탄력적 처리량 또는 프로비저닝된 처리량으로 전환하는 것이 좋습니다.

`MeteredIOBytes`과 `PermittedThroughput` 값이 같으면 파일 시스템이 사용 가능한 모든 처리량을 소비하게 됩니다. 프로비저닝된 처리량을 사용하는 파일 시스템의 경우 추가 처리량을 프로비저닝할 수 있습니다.

# CloudWatch 지표와 함께 지표 수식 사용
<a name="monitoring-metric-math"></a>

지표 수식을 사용하면 여러 Amazon CloudWatch 지표를 쿼리하고 수식을 사용하여 이러한 지표를 기반으로 새로운 시계열을 생성할 수 있습니다. CloudWatch 콘솔에서 결과 시계열을 시각화하고 대시보드에 추가할 수 있습니다. 예를 들어, Amazon EFS 지표를 사용해 60으로 나눈 `DataRead` 작업의 샘플 수를 가져올 수 있습니다. 1분 동안 파일 시스템의 초당 읽기 수(평균)입니다. 지표 수학에 대한 자세한 내용은 *Amazon CloudWatch 사용 설명서*에서 [CloudWatch 지표에 수학 표현식 사용](https://docs.aws.amazon.com/AmazonCloudWatch/latest/monitoring/using-metric-math.html)을 참조하세요.

다음은 Amazon EFS에 유용하게 사용할 수 있는 지표 수식 표현식입니다.

**Topics**
+ [지표 수식: 처리량(MiB/초)](#metric-math-throughput-mib)
+ [지표 수식: 처리량(%)](#metric-math-throughput-percent)
+ [지표 수식: 허용 처리량 사용률 백분율](#metric-math-throughput-utilization)
+ [지표 수식: 처리량 IOPS](#metric-math-throughput-iops)
+ [지표 수식: IOPS(%)](#metric-math-iops-percent)
+ [지표 수식: 평균 I/O 크기(KiB)](#metric-math-average-io)
+ [Amazon EFS용 CloudFormation 템플릿을 통한 지표 수학 사용](#metric-math-cloudformation-template)

## 지표 수식: 처리량(MiB/초)
<a name="metric-math-throughput-mib"></a>

특정 기간에 대한 평균 처리량(MiB/초)을 계산하려면, 먼저 합계 통계(`DataReadIOBytes`, `DataWriteIOBytes`, `MetadataIOBytes` 또는 `TotalIOBytes`)를 선택합니다. 그런 다음 MiB로 값을 변환한 후 기간을 초로 계산한 수로 나눕니다.

예가 되는 로직이 '`TotalIOBytes` 합계 ÷ 1048576(MiB로 변환) ÷ 초(기간을 초로 계산)'이라고 가정하겠습니다.

이 경우, CloudWatch 지표 정보는 다음과 같습니다.


| ID | 사용 가능한 지표 | 통계 | Period | 
| --- | --- | --- | --- | 
| m1 |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/ko_kr/efs/latest/ug/monitoring-metric-math.html)  | 합계 | 1분 | 

지표 수식 ID와 표현식은 다음과 같습니다.


| ID | 표현식 | 
| --- | --- | 
| e1 | (m1/1048576)/PERIOD(m1) | 

## 지표 수식: 처리량(%)
<a name="metric-math-throughput-percent"></a>

이 지표 수식 표현식은 다양한 I/O 유형에 사용되는 전체 처리량 중 백분율(예: 총 처리량 중 읽기 요청으로 구동되는 비율)을 계산합니다. 특정 기간의 여러 I/O 유형(`DataReadIOBytes`, `DataWriteIOBytes` 또는 `MetadataIOBytes`) 중 하나가 사용하는 전체 처리량(%)을 계산하려면 먼저 각 합계 통계에 100을 곱합니다. 그런 다음 같은 기간 동안 `TotalIOBytes`의 합계 통계로 결과를 나눕니다.

예가 되는 로직이 '(`DataReadIOBytes` 합계 x 100 (퍼센트로 변환)) ÷ `TotalIOBytes` 합계'라고 가정하겠습니다.

이 경우, CloudWatch 지표 정보는 다음과 같습니다.


| ID | 사용 가능한 지표 | 통계 | Period | 
| --- | --- | --- | --- | 
| m1 | [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/ko_kr/efs/latest/ug/monitoring-metric-math.html)  | 합계 | 1분 | 
| m2 | [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/ko_kr/efs/latest/ug/monitoring-metric-math.html)  | 합계 | 1분 | 

지표 수식 ID와 표현식은 다음과 같습니다.


| ID | 표현식 | 
| --- | --- | 
| e1 | (m2\$1100)/m1 | 

## 지표 수식: 허용 처리량 사용률 백분율
<a name="metric-math-throughput-utilization"></a>

특정 기간의 허용 처리량 사용률(`MeteredIOBytes`)의 비율(%)을 계산하려면 먼저 처리량(MiB/초)에 100을 곱합니다. 그런 다음 같은 기간 동안 MiB로 변환한 `PermittedThroughput`의 평균 통계로 결과를 나눕니다.

예시가 되는 로직이 '(처리량(Mib/초)에 대한 지표 수식 표현식 x 100(퍼센트로 변환)) ÷ (`PermittedThroughput`의 합계 ÷ 1,048,576(바이트를 MiB로 변환))'이라고 가정하겠습니다.

이 경우, CloudWatch 지표 정보는 다음과 같습니다.


| ID | 사용 가능한 지표 | 통계 | Period | 
| --- | --- | --- | --- | 
| m1 |  `MeteredIOBytes`  | 합계 | 1분 | 
| m2 | `PermittedThroughput` | 평균 | 1분 | 

지표 수식 ID와 표현식은 다음과 같습니다.


| ID | 표현식 | 
| --- | --- | 
| e1 |   (m1/1048576)/PERIOD(m1)  | 
| e2 | m2/1048576 | 
| e3 | ((e1)\$1100)/(e2) | 

## 지표 수식: 처리량 IOPS
<a name="metric-math-throughput-iops"></a>

특정 기간에 대한 초당 평균 작업(IOPS)를 계산하려면 샘플 수 통계(`DataReadIOBytes`, `DataWriteIOBytes`, `MetadataIOBytes`, `TotalIOBytes`)를 해당 기간의 초로 나눕니다.

예가 되는 로직이 '`DataWriteIOBytes` 샘플 수 ÷ 초(기간을 초로 계산)'이라고 가정하겠습니다.

이 경우, CloudWatch 지표 정보는 다음과 같습니다.


| ID | 사용 가능한 지표 | 통계 | Period | 
| --- | --- | --- | --- | 
| m1 | [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/ko_kr/efs/latest/ug/monitoring-metric-math.html)  | 샘플 수 | 1분 | 

지표 수식 ID와 표현식은 다음과 같습니다.


| ID | 표현식 | 
| --- | --- | 
| e1 | m1/PERIOD(m1) | 

## 지표 수식: IOPS(%)
<a name="metric-math-iops-percent"></a>

특정 기간의 여러 I/O 유형(`DataReadIOBytes`, `DataWriteIOBytes`, `MetadataIOBytes`)의 초당 IOPS(%)를 계산하려면 먼저 샘플 수 통계에 100을 곱합니다. 그런 다음 같은 기간에 해당 값을 `TotalIOBytes`의 샘플 수 통계로 나눕니다.

예가 되는 로직이 '(`MetadataIOBytes` 샘플 수 x 100 (퍼센트로 변환)) ÷ `TotalIOBytes` 샘플 수'라고 가정하겠습니다.

이 경우, CloudWatch 지표 정보는 다음과 같습니다.


| ID | 사용 가능한 지표 | 통계 | Period | 
| --- | --- | --- | --- | 
| m1 | [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/ko_kr/efs/latest/ug/monitoring-metric-math.html)  | 샘플 수 | 1분 | 
| m2 | [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/ko_kr/efs/latest/ug/monitoring-metric-math.html)  | 샘플 수 | 1분 | 

지표 수식 ID와 표현식은 다음과 같습니다.


| ID | 표현식 | 
| --- | --- | 
| e1 | (m2\$1100)/m1 | 

## 지표 수식: 평균 I/O 크기(KiB)
<a name="metric-math-average-io"></a>

특정 기간에 대한 평균 I/O 크기(KiB)를 계산하려면 `DataReadIOBytes`, `DataWriteIOBytes`, `MetadataIOBytes` 지표의 합계 통계를 해당 지표의 샘플 수 통계로 나눕니다.

예가 되는 로직이 '(`DataReadIOBytes` 합계 ÷ 1024 (KiB로 변환)) ÷ `DataReadIOBytes` 샘플 수'라고 가정하겠습니다.

이 경우, CloudWatch 지표 정보는 다음과 같습니다.


| ID | 사용 가능한 지표 | 통계 | Period | 
| --- | --- | --- | --- | 
| m1 | [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/ko_kr/efs/latest/ug/monitoring-metric-math.html)  | 합계 | 1분 | 
| m2 | [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/ko_kr/efs/latest/ug/monitoring-metric-math.html)  | 샘플 수 | 1분 | 

지표 수식 ID와 표현식은 다음과 같습니다.


| ID | 표현식 | 
| --- | --- | 
| e1 | (m1/1024)/m2 | 

## Amazon EFS용 CloudFormation 템플릿을 통한 지표 수학 사용
<a name="metric-math-cloudformation-template"></a>

 CloudFormation 템플릿을 통해 지표 수학 표현식을 생성할 수도 있습니다. GitHub의 [Amazon EFS 자습서](https://github.com/aws-samples/amazon-efs-tutorial)에서 사용할 템플릿을 다운로드 받아 사용자 지정할 수 있습니다. CloudFormation 템플릿 사용에 대한 자세한 내용은 사용 설명서의 [CloudFormation 템플릿 작업을](https://docs.aws.amazon.com/AWSCloudFormation/latest/UserGuide/template-guide.html) 참조하세요. *AWS CloudFormation * 

# 탑재 시도 성공 또는 실패 모니터링
<a name="how-to-monitor-mount-status"></a>

Amazon CloudWatch Logs를 사용하면 클라이언트에 로그인하지 않고도 EFS 파일 시스템에 대한 탑재 시도의 성공 또는 실패를 원격으로 모니터링하고 보고할 수 있습니다. 다음 절차를 사용하여 CloudWatch Logs를 사용하여 파일 시스템 탑재 시도의 성공 또는 실패를 모니터링하도록 EC2 인스턴스를 구성합니다.

**CloudWatch 로그에서 탑재 시도 성공 또는 실패 알림을 활성화하려면**

1. EC2 인스턴스에 `amazon-efs-utils`를 설치하여 파일 시스템을 탑재합니다. 자세한 내용은 [를 사용하여 Amazon EFS 클라이언트 자동 설치 또는 업데이트 AWS Systems Manager](manage-efs-utils-with-aws-sys-manager.md) 또는 [Amazon EFS 클라이언트 수동 설치](installing-amazon-efs-utils.md)을 참조하세요.

1. 파일 시스템을 탑재할 EC2 인스턴스에 `botocore` 설치합니다. 자세한 내용은 [`botocore` 설치 및 업그레이드](install-botocore.md) 단원을 참조하십시오.

1. `amazon-efs-utils`에서 CloudWatch Logs 기능을 활성화합니다. AWS Systems Manager 를 사용하여를 설치하고 구성하면 `amazon-efs-utils` CloudWatch 로깅이 자동으로 수행됩니다. `amazon-efs-utils` 패키지를 수동으로 설치하는 경우 `cloudwatch-log` 섹션에서 해당 `# enabled = true` 줄의 주석을 제거하여 `/etc/amazon/efs/efs-utils.conf` 구성 파일을 수동으로 업데이트해야 합니다. 다음 명령 중 하나를 사용하여 CloudWatch Logs를 수동으로 활성화합니다.

   Linux 인스턴스의 경우:

   ```
   sudo sed -i -e '/\[cloudwatch-log\]/{N;s/# enabled = true/enabled = true/}' /etc/amazon/efs/efs-utils.conf
   ```

   macOS 인스턴스의 경우:

   ```
   EFS_UTILS_VERSION= efs-utils-version
   sudo sed -i -e '/\[cloudwatch-log\]/{N;s/# enabled = true/enabled = true/;}' /usr/local/Cellar/amazon-efs-utils/${EFS_UTILS_VERSION}/libexec/etc/amazon/efs/efs-utils.conf
   ```

   Mac2 인스턴스의 경우:

   ```
   EFS_UTILS_VERSION= efs-utils-version
   sudo sed -i -e '/\[cloudwatch-log\]/{N;s/# enabled = true/enabled = true/;}' /opt/homebrew/Cellar/amazon-efs-utils/${EFS_UTILS_VERSION}/libexec/etc/amazon/efs/efs-utils.conf
   ```

1. 선택적으로 CloudWatch Logs 그룹 이름을 구성하고 `efs-utils.conf` 파일에 로그 보존 일수를 설정할 수 있습니다. CloudWatch에서 탑재된 각 파일 시스템에 대해 별도의 로그 그룹을 만들려면 다음과 같이 `efs-utils.conf` 파일의 `log_group_name` 필드 끝에 `/{fs_id}`를 추가하세요.

   ```
   [cloudwatch-log]
   log_group_name = /aws/efs/utils/{fs_id}
   ```

1. `AmazonElasticFileSystemsUtils` AWS 관리형 정책을 EC2 인스턴스에 연결한 IAM 역할 또는 인스턴스에 구성된 AWS 자격 증명에 연결합니다. Systems Manager를 사용하여 이를 수행할 수 있습니다. 자세한 내용은 [1단계: 필요한 권한으로 IAM 인스턴스 프로파일 구성](setting-up-aws-sys-mgr.md#configure-sys-mgr-iam-instance-profile) 섹션을 참조하세요.

다음은 탑재 시도 상태 로그 항목의 예입니다.

```
Successfully mounted fs-12345678.efs.us-east-1.amazonaws.com at /home/ec2-user/efs
Mount failed, Failed to resolve "fs-01234567.efs.us-east-1.amazonaws.com"
```

**CloudWatch Logs에서 탑재 상태를 보려면**

1. [https://console.aws.amazon.com/cloudwatch/](https://console.aws.amazon.com/cloudwatch/)에서 CloudWatch 콘솔을 엽니다.

1. 탐색 창에서 **로그 그룹**을 선택합니다.

1. **/aws/efs/utils** 로그 그룹을 선택합니다. 각 Amazon EC2 인스턴스 및 EFS 파일 시스템 조합에 대한 로그 스트림이 표시됩니다.

1. 로그 스트림을 선택하면 탑재 시도 성공 또는 실패 상태를 비롯한 특정 로그 이벤트를 볼 수 있습니다.

# Amazon EFS 모니터링을 위한 CloudWatch 경보 생성
<a name="creating_alarms"></a>

경보로 인해 상태가 변경되면 Amazon SNS 메시지를 보내는 CloudWatch 경보를 생성할 수 있습니다. 경보는 지정한 기간 동안 단일 지표를 감시합니다. 이 경보는 여러 기간에 대해 주어진 임계값과 지표 값을 비교하여 하나 이상의 작업을 수행합니다. 이 작업은 Amazon SNS 주제 또는 Auto Scaling 정책으로 전송되는 알림입니다.

경보는 지속적인 상태 변경에 대해서만 작업을 호출합니다. CloudWatch 경보는 특정 상태에 있다는 이유만으로는 작업을 호출하지 않습니다. 상태가 변경되고 지정한 기간 동안 유지되어야 합니다.

Amazon EFS에 CloudWatch 경보를 사용하는 중요한 용도 중 하나는 파일 시스템에 유휴 암호화를 적용하는 것입니다. 생성할 때 Amazon EFS 파일 시스템에 유휴 상태의 암호화를 활성화할 수 있습니다. Amazon EFS 파일 시스템에 유휴 데이터 암호화 정책을 적용하려면 Amazon CloudWatch 및 AWS CloudTrail 을 사용해 파일 시스템 생성을 감지하고, 유휴 암호화가 활성화되어 있는지 확인합니다.

**참고**  
현재는 전송 중 암호화를 적용할 수 없습니다.

다음 절차에서는 Amazon EFS에 대한 경보를 만드는 방법을 간략하게 설명합니다.

## 콘솔 사용
<a name="set-alarms-console"></a>

**CloudWatch 콘솔을 사용하여 경보를 설정하려면**

1. 에 로그인 AWS Management Console 하고 [https://console.aws.amazon.com/cloudwatch/](https://console.aws.amazon.com/cloudwatch/) CloudWatch 콘솔을 엽니다.

1.  **경보 생성**을 선택합니다. 그러면 **Create Alarm Wizard**가 시작됩니다.

1. **EFS 지표**를 선택하고 Amazon EFS 지표를 스크롤하여 경보를 생성할 지표를 찾습니다. 이 대화 상자에서 Amazon EFS 지표를 표시하려면 파일 시스템의 파일 시스템 ID를 검색합니다. 경보를 생성할 지표를 선택하고 **다음**을 선택합니다.

1.  지표에 대한 **이름**, **설명**, **다음 경우 항상** 값을 입력합니다.

1. 경보 상태 도달 시 CloudWatch에서 이메일을 보내게 하려면, **이 경우 언제든 경보:** 필드에서 **경보 상태**를 선택합니다. **알림 보내기:** 필드에서 기존 SNS 주제를 선택합니다. **주제 생성**을 선택한 경우 새 이메일 구독 목록에 대한 명칭 및 이메일 주소를 설정할 수 있습니다. 이 목록은 향후 경보를 위해 필드에 저장되고 표시됩니다.
**참고**  
 새 Amazon SNS 주제를 생성하기 위해 **주제 생성**을 사용할 경우 이메일 주소는 알림을 받기 전에 검증되어야 합니다. 이메일은 경보가 경보 상태에 입력될 때만 전송됩니다. 이러한 경보 상태 변경이 이메일이 검증되기 전에 발생할 경우에는 알림을 받지 못합니다.

1.  이제 **경보 미리 보기** 영역에서 생성할 경보를 미리 볼 수 있습니다. **경보 생성**을 선택합니다.

## 사용 AWS CLI
<a name="set-alarms-cli"></a>

**를 사용하여 경보를 설정하려면 AWS CLI**
+ `[https://docs.aws.amazon.com/cli/latest/reference/cloudwatch/put-metric-alarm.html](https://docs.aws.amazon.com/cli/latest/reference/cloudwatch/put-metric-alarm.html)`를 호출합니다. 자세한 내용은 [AWS CLI 명령 참조](https://docs.aws.amazon.com/cli/latest/reference/)를 참조하세요.

## CloudWatch API 사용
<a name="set-alarms-api"></a>

**CloudWatch API를 사용하여 경보 설정**
+ `[https://docs.aws.amazon.com/AmazonCloudWatch/latest/APIReference/API_PutMetricAlarm.html](https://docs.aws.amazon.com/AmazonCloudWatch/latest/APIReference/API_PutMetricAlarm.html)`을 호출합니다. 자세한 내용은 [CloudWatch API 참조](https://docs.aws.amazon.com/AmazonCloudWatch/latest/APIReference/)를 참조하세요.

# 를 사용하여 Amazon EFS API 호출 로깅 AWS CloudTrail
<a name="logging-using-cloudtrail"></a>

Amazon EFS는 Amazon EFS에서 사용자 AWS CloudTrail, 역할 또는 서비스가 수행한 작업에 대한 레코드를 제공하는 AWS 서비스와 통합됩니다. CloudTrail은 Amazon EFS 콘솔의 직접 호출과 Amazon EFS API 작업에 대한 코드 직접 호출을 포함하여 Amazon EFS에 대한 모든 API 직접 호출을 이벤트로 캡처합니다.

추적을 생성하면 Amazon EFS 이벤트를 포함한 CloudTrail 이벤트를 지속적으로 Amazon S3 버킷에 배포할 수 있습니다. 추적을 구성하지 않은 경우에도 **이벤트 기록**에서 CloudTrail 콘솔의 최신 이벤트를 볼 수 있습니다. CloudTrail에서 수집한 정보를 사용하여 Amazon EFS에 수행된 요청, 요청이 수행된 IP 주소, 요청을 수행한 사람, 요청이 수행된 시간 및 추가 세부 정보를 확인할 수 있습니다.

자세한 내용은 *AWS CloudTrail 사용 설명서*의 [What is AWS CloudTrail?](https://docs.aws.amazon.com/awscloudtrail/latest/userguide/)를 참조하세요.

## CloudTrail의 Amazon EFS 정보
<a name="service-name-info-in-cloudtrail"></a>

CloudTrail은 계정을 생성할 AWS 계정 때에서 활성화됩니다. Amazon EFS에서 활동이 발생하면 해당 활동이 **이벤트 기록**의 다른 AWS 서비스 이벤트와 함께 CloudTrail 이벤트에 기록됩니다. 에서 최근 이벤트를 보고 검색하고 다운로드할 수 있습니다 AWS 계정. 자세한 설명은 [CloudTrail 이벤트 기록 작업](https://docs.aws.amazon.com/awscloudtrail/latest/userguide/view-cloudtrail-events.html)을 참조하세요.

Amazon EFS에 대한 이벤트를 AWS 계정포함하여에 이벤트를 지속적으로 기록하려면 추적을 생성합니다. CloudTrail은 추적을 사용하여 Amazon S3 버킷으로 로그 파일을 전송할 수 있습니다. 기본적으로 콘솔에서 추적을 생성하면 추적이 모든 AWS 리전에 적용됩니다. 추적은 AWS 파티션 AWS 리전 의 모든에서 이벤트를 로깅하고 지정한 Amazon S3 버킷으로 로그 파일을 전송합니다. 또한 CloudTrail 로그에서 수집된 이벤트 데이터를 추가로 분석하고 조치를 취하도록 다른 AWS 서비스를 구성할 수 있습니다. 자세한 내용은AWS CloudTrail 사용 설명서**에서 다음 주제를 참조하세요.
+ [AWS 계정에 대한 추적 생성](https://docs.aws.amazon.com/awscloudtrail/latest/userguide/cloudtrail-create-and-update-a-trail.html)
+ [AWS CloudTrail 로그와의 서비스 통합](https://docs.aws.amazon.com/awscloudtrail/latest/userguide/cloudtrail-aws-service-specific-topics.html#cloudtrail-aws-service-specific-topics-integrations)
+ [CloudTrail에 대한 Amazon SNS 알림 구성](https://docs.aws.amazon.com/awscloudtrail/latest/userguide/configure-sns-notifications-for-cloudtrail.html)
+ [여러 리전에서 CloudTrail 로그 파일 수신](https://docs.aws.amazon.com/awscloudtrail/latest/userguide/receive-cloudtrail-log-files-from-multiple-regions.html) 및 [여러 계정에서 CloudTrail 로그 파일 수신](https://docs.aws.amazon.com/awscloudtrail/latest/userguide/cloudtrail-receive-logs-from-multiple-accounts.html)

모든 Amazon EFS [Amazon EFS API](api-reference.md)는 CloudTrail에 의해 로깅됩니다. 예를 들어, `CreateFileSystem`, `CreateMountTarget` 및 `CreateTags` 작업에 대한 직접 호출은 CloudTrail 로그 파일의 항목을 생성합니다.

모든 이벤트 또는 로그 항목에는 요청을 생성했던 사용자에 대한 정보가 포함됩니다. ID 정보를 이용하면 다음을 쉽게 판단할 수 있습니다.
+ 요청이 루트 사용자 또는 AWS Identity and Access Management (IAM) 사용자 자격 증명으로 이루어졌는지 여부입니다.
+ 역할 또는 페더레이션 사용자의 임시 자격 증명을 사용하여 요청이 생성되었는지 여부.
+ 요청이 다른 AWS 서비스에서 이루어졌는지 여부입니다.

자세한 내용은 **AWS CloudTrail 사용 설명서의 [CloudTrail userIdentity 요소](https://docs.aws.amazon.com/awscloudtrail/latest/userguide/cloudtrail-event-reference-user-identity.html)를 참조하세요.

## Amazon EFS 로그 파일 항목 이해
<a name="understanding-service-name-entries"></a>

추적**이란 지정한 Amazon S3 버킷에 이벤트를 로그 파일로 입력할 수 있게 하는 구성입니다. CloudTrail 로그 파일에는 하나 이상의 로그 항목이 포함될 수 있습니다. 이벤트**는 모든 소스로부터의 단일 요청을 나타내며 요청 작업, 작업 날짜와 시간, 요청 파라미터 등에 대한 정보가 들어 있습니다. CloudTrail 로그 파일은 퍼블릭 API 직접 호출의 주문 스택 트레이스가 아니므로 특정 순서로 표시되지 않습니다.

다음 예는 콘솔에서 파일 시스템의 태그를 만든 경우 `CreateTags` 작업을 실행하는 CloudTrail 로그 항목을 보여줍니다.

```
{
	"eventVersion": "1.06",
	"userIdentity": {
		"type": "Root",
		"principalId": "111122223333",
		"arn": "arn:aws:iam::111122223333:root",
		"accountId": "111122223333",
		"accessKeyId": "AKIAIOSFODNN7EXAMPLE",
		"sessionContext": {
			"attributes": {
				"mfaAuthenticated": "false",
				"creationDate": "2017-03-01T18:02:37Z"
			}
		}
	},
	"eventTime": "2017-03-01T19:25:47Z",
	"eventSource": "elasticfilesystem.amazonaws.com",
	"eventName": "CreateTags",
	"awsRegion": "us-west-2",
	"sourceIPAddress": "192.0.2.0",
	"userAgent": "console.amazonaws.com",
	"requestParameters": {
		"fileSystemId": "fs-00112233",
		"tags": [{
				"key": "TagName",
				"value": "AnotherNewTag"
			}
		]
	},
	"responseElements": null,
	"requestID": "dEXAMPLE-feb4-11e6-85f0-736EXAMPLE75",
	"eventID": "eEXAMPLE-2d32-4619-bd00-657EXAMPLEe4",
	"eventType": "AwsApiCall",
	"apiVersion": "2015-02-01",
	"recipientAccountId": "111122223333"
}
```

다음 예는 콘솔에서 파일 시스템의 태그를 삭제한 경우 `DeleteTags` 작업을 실행하는 CloudTrail 로그 항목을 보여줍니다.

```
{
	"eventVersion": "1.06",
	"userIdentity": {
		"type": "Root",
		"principalId": "111122223333",
		"arn": "arn:aws:iam::111122223333:root",
		"accountId": "111122223333",
		"accessKeyId": "AKIAIOSFODNN7EXAMPLE",
		"sessionContext": {
			"attributes": {
				"mfaAuthenticated": "false",
				"creationDate": "2017-03-01T18:02:37Z"
			}
		}
	},
	"eventTime": "2017-03-01T19:25:47Z",
	"eventSource": "elasticfilesystem.amazonaws.com",
	"eventName": "DeleteTags",
	"awsRegion": "us-west-2",
	"sourceIPAddress": "192.0.2.0",
	"userAgent": "console.amazonaws.com",
	"requestParameters": {
		"fileSystemId": "fs-00112233",
		"tagKeys": []
	},
	"responseElements": null,
	"requestID": "dEXAMPLE-feb4-11e6-85f0-736EXAMPLE75",
	"eventID": "eEXAMPLE-2d32-4619-bd00-657EXAMPLEe4",
	"eventType": "AwsApiCall",
	"apiVersion": "2015-02-01",
	"recipientAccountId": "111122223333"
}
```

### EFS 서비스 연결 역할에 대한 로그 항목
<a name="efs-service-linked-role-ct"></a>

Amazon EFS 서비스 연결 역할은 AWS 리소스에 대한 API 호출을 수행합니다. EFS 서비스 연결 역할에서 수행한 직접 호출의 경우 CloudTrail 로그 항목에 `username: AWSServiceRoleForAmazonElasticFileSystem`이 표시됩니다. EFS 및 서비스 연결 역할에 대한 자세한 내용은 [Amazon EFS에 대해 서비스 연결 역할 사용](using-service-linked-roles.md) 섹션을 참조하세요.

다음 예제에서는 에서 AWSServiceRoleForAmazonElasticFileSystem 서비스 연결 역할을 생성할 때 `CreateServiceLinkedRole` 작업을 보여 주는 CloudTrail 로그 항목을 표시합니다.

```
{
    "eventVersion": "1.05",
    "userIdentity": {
        "type": "IAMUser",
        "principalId": "111122223333",
        "arn": "arn:aws:iam::111122223333:user/user1",
        "accountId": "111122223333",
        "accessKeyId": "A111122223333",
        "userName": "user1",
        "sessionContext": {
            "attributes": {
                "mfaAuthenticated": "false",
                "creationDate": "2019-10-23T22:45:41Z"
            }
        },
        "invokedBy": "elasticfilesystem.amazonaws.com”
    },
    "eventTime": "2019-10-23T22:45:41Z",
    "eventSource": "iam.amazonaws.com",
    "eventName": "CreateServiceLinkedRole",
    "awsRegion": "us-east-1",
    "sourceIPAddress": "192.0.2.0",
    "userAgent": "user_agent",
    "requestParameters": {
        "aWSServiceName": "elasticfilesystem.amazonaws.com”
    },
    "responseElements": {
        "role": {
            "assumeRolePolicyDocument": "111122223333-10-111122223333Statement111122223333Action111122223333AssumeRole111122223333Effect%22%3A%20%22Allow%22%2C%20%22Principal%22%3A%20%7B%22Service%22%3A%20%5B%22 elasticfilesystem.amazonaws.com%22%5D%7D%7D%5D%7D",
            "arn": "arn:aws:iam::111122223333:role/aws-service-role/elasticfilesystem.amazonaws.com/AWSServiceRoleForAmazonElasticFileSystem",
            "roleId": "111122223333",
            "createDate": "Oct 23, 2019 10:45:41 PM",
            "roleName": "AWSServiceRoleForAmazonElasticFileSystem",
            "path": "/aws-service-role/elasticfilesystem.amazonaws.com/“
        }
    },
    "requestID": "11111111-2222-3333-4444-abcdef123456",
    "eventID": "11111111-2222-3333-4444-abcdef123456",
    "eventType": "AwsApiCall",
    "recipientAccountId": "111122223333"
}
```

다음 예제에서는 `sessionContext`에 표시된 `AWSServiceRoleForAmazonElasticFileSystem` 서비스 연결 역할에서 생성된 `CreateNetworkInterface` 작업을 보여 주는 CloudTrail 로그 항목을 표시합니다.

```
{
    "eventVersion": "1.05",
    "userIdentity": {
        "type": "AssumedRole",
        "principalId": "AIDACKCEVSQ6C2EXAMPLE",
        "arn": "arn:aws:sts::0123456789ab:assumed-role/AWSServiceRoleForAmazonElasticFileSystem/0123456789ab",
        "accountId": "0123456789ab",
        "sessionContext": {
            "sessionIssuer": {
                "type": "Role",
                "principalId": "AIDACKCEVSQ6C2EXAMPLE",
                "arn": "arn:aws:iam::0123456789ab:role/aws-service-role/elasticfilesystem.amazonaws.com/AWSServiceRoleForAmazonElasticFileSystem",
                "accountId": "0123456789ab",
                "userName": "AWSServiceRoleForAmazonElasticFileSystem"
            },
            "webIdFederationData": {},
            "attributes": {
                "mfaAuthenticated": "false",
                "creationDate": "2019-10-23T22:50:05Z"
            }
        },
        "invokedBy": "AWS Internal"
    },
    "eventTime": "20You 19-10-23T22:50:05Z",
    "eventSource": "ec2.amazonaws.com",
    "eventName": "CreateNetworkInterface",
    "awsRegion": "us-east-1",
    "sourceIPAddress": "elasticfilesystem.amazonaws.com”,
    "userAgent": "elasticfilesystem.amazonaws.com",
    "requestParameters": {
        "subnetId": "subnet-71e2f83a",
        "description": "EFS mount target for fs-1234567 (fsmt-1234567)",
        "groupSet": {},
        "privateIpAddressesSet": {}
    },
    "responseElements": {
        "requestId": "0708e4ad-03f6-4802-b4ce-4ba987d94b8d",
        "networkInterface": {
            "networkInterfaceId": "eni-0123456789abcdef0",
            "subnetId": "subnet-12345678",
            "vpcId": "vpc-01234567",
            "availabilityZone": "us-east-1b",
            "description": "EFS mount target for fs-1234567 (fsmt-1234567)",
            "ownerId": "666051418590",
            "requesterId": "0123456789ab",
            "requesterManaged": true,
            "status": "pending",
            "macAddress": "00:bb:ee:ff:aa:cc",
            "privateIpAddress": "192.0.2.0",
            "privateDnsName": "ip-192-0-2-0.ec2.internal",
            "sourceDestCheck": true,
            "groupSet": {
                "items": [
                    {
                        "groupId": "sg-c16d65b6",
                        "groupName": "default"
                    }
                ]
            },
            "privateIpAddressesSet": {
                "item": [
                    {
                        "privateIpAddress": "192.0.2.0",
                        "primary": true
                    }
                ]
            },
            "tagSet": {}
        }
    },
    "requestID": "11112222-3333-4444-5555-666666777777",
    "eventID": "aaaabbbb-1111-2222-3333-444444555555",
    "eventType": "AwsApiCall",
    "recipientAccountId": "111122223333"
}
```

### EFS 인증을 위한 로그 항목
<a name="efs-access-point-ct"></a>

NFS 클라이언트에 대한 Amazon EFS 인증은 `NewClientConnection` 및 `UpdateClientConnection` CloudTrail 이벤트를 생성합니다. 초기 연결 및 재연결 직후에 연결이 승인되면 `NewClientConnection` 이벤트가 발생합니다. 연결이 재승인되고 허용된 작업 목록이 변경되면 `UpdateClientConnection` 이 발생합니다. 허용된 작업의 새 목록에 `ClientMount`가 포함되지 않은 경우에도 이벤트가 발생합니다. EFS 권한 부여에 대한 자세한 내용은 [IAM을 사용하여 파일 시스템에 대한 액세스 제어](iam-access-control-nfs-efs.md) 섹션을 참조하세요.

다음 예제는 `NewClientConnection` 이벤트를 보여 주는 CloudTrail 로그 항목입니다.

```
{
    "eventVersion": "1.05",
    "userIdentity": {
        "type": "AssumedRole",
        "principalId": "AIDACKCEVSQ6C2EXAMPLE",
        "arn": "arn:aws:sts::0123456789ab:assumed-role/abcdef0123456789",
        "accountId": "0123456789ab",
        "accessKeyId": "AKIAIOSFODNN7EXAMPLE ",
        "sessionContext": {
            "sessionIssuer": {
                "type": "Role",
                "principalId": "AIDACKCEVSQ6C2EXAMPLE",
                "arn": "arn:aws:iam::0123456789ab:role/us-east-2",
                "accountId": "0123456789ab",
                "userName": "username"
            },
            "webIdFederationData": {},
            "attributes": {
                "mfaAuthenticated": "false",
                "creationDate": "2019-12-23T17:50:16Z"
            },
            "ec2RoleDelivery": "1.0"
        }
    },
    "eventTime": "2019-12-23T18:02:12Z",
    "eventSource": "elasticfilesystem.amazonaws.com",
    "eventName": "NewClientConnection",
    "awsRegion": "us-east-2",
    "sourceIPAddress": "AWS Internal",
    "userAgent": "elasticfilesystem",
    "requestParameters": null,
    "responseElements": null,
    "eventID": "27859ac9-053c-4112-aee3-f3429719d460",
    "readOnly": true,
    "resources": [
        {
            "accountId": "0123456789ab",
            "type": "AWS::EFS::FileSystem",
            "ARN": "arn:aws:elasticfilesystem:us-east-2:0123456789ab:file-system/fs-01234567"
        },
        {
            "accountId": "0123456789ab",
            "type": "AWS::EFS::AccessPoint",
            "ARN": "arn:aws:elasticfilesystem:us-east-2:0123456789ab:access-point/fsap-0123456789abcdef0"
        }
    ],
    "eventType": "AwsServiceEvent",
    "recipientAccountId": "0123456789ab",
    "serviceEventDetails": {
        "permissions": {
            "ClientRootAccess": true,
            "ClientMount": true,
            "ClientWrite": true
        },
        "sourceIpAddress": "10.7.3.72"
    }
}
```

## 파일 시스템 유휴 암호화용 Amazon EFS 로그 파일 항목
<a name="efs-encryption-cloudtrail"></a>

Amazon EFS는 전송 중 암호화와 유휴 암호화라는 두 가지 파일 시스템 암호화 사용 옵션을 제공합니다. 자세한 내용은 [Amazon EFS의 데이터 암호화](encryption.md) 단원을 참조하십시오.

Amazon EFS는 데이터 키를 생성하고 Amazon EFS 데이터를 복호화하기 위한 AWS KMS API 요청을 할 때 [암호화 컨텍스트](https://docs.aws.amazon.com/kms/latest/developerguide/concepts.html#encrypt_context)를 전송합니다. 파일 시스템 ID는 유휴 암호화가 적용된 모든 파일 시스템에 대한 암호화 컨텍스트입니다. CloudTrail 로그 항목의 `requestParameters` 필드에서 암호화 컨텍스트는 다음과 비슷하게 표시됩니다.

```
"EncryptionContextEquals": {}
"aws:elasticfilesystem:filesystem:id" : "fs-4EXAMPLE"
```